2021.03.29

시민 개발자가 알아야 할 '윤리적 AI' 구축 방법

James Kobielus | InfoWorld
‘신뢰하라 그러나 검증하라(Trust but verify)’는 좋은 말이지만 이를 현실적으로 AI에도 적용할 수 있을까? 
 
ⓒGetty Images

현재 AI 업계는 새로운 세대의 ‘시민 개발자’를 끌어안으면서 위험한 게임을 하고 있다. AI 솔루션 업체, 컨설턴트 등이 한쪽에선 ‘책임감 있는 AI(Responsible AI)’에 관해 그럴듯한 말을 하면서 다른 한쪽에서는 새로운 세대의 비-전문 개발자가 거의 모든 곳에 딥러닝, 머신러닝, 자연어 처리 등을 적용하도록 장려하고 있는 것이다. 

일각에서는 이렇게 책임감 있는 AI에 대한 관심을 두고 더 강력한 규제를 요구하는 목소리를 누그러뜨리려는 AI 업계의 전략이라고 비판하기도 한다. 물론 그 누구도 제공업체에서 고객이 제품을 사용하는 방식을 제어하리라 생각하진 않는다. 

하지만 프라이버시를 침해하고, 사회적 편견을 부추기며, 윤리적 실수를 저지르는 애플리케이션을 막기 위한 업계의 주된 접근방식은 책임감 있는 AI에 대한 일련의 문서를 발표하는 것에 불과하다. 최근 사례만 살펴봐도 마이크로소프트, 구글, 액센츄어, PwC, 딜로이트, 윤리적 AI 및 머신러닝 협회(The Institute for Ethical AI and Machine Learning) 등에서 이러한 문서를 발표했다.

AI 업체들의 또 다른 접근방식은 책임감 있는 AI 기능을 개발 툴과 런타임 플랫폼에 적용하는 것이다. 이와 관련해 마이크로소프트의 ‘애저 퍼셉트(Azure Percept)’를 살펴볼 필요가 있다. 현재 퍼블릭 프리뷰로 발표된 이 소프트웨어, 하드웨어, 서비스 번들은 엣지 구축을 위한 AI 애플리케이션의 대량 개발을 촉진하고자 고안됐다. 

기본적으로 ‘애저 퍼셉트’는 사회적 관점에서 보면 무책임할 수 있는 AI 애플리케이션 개발을 장려한다. 이는 스파이 활동, 감시, 도청 등이 주된 목적인 스마트 카메라나 스마트 스피커 등에 내장되는 AI를 말하는 것이다. 애저 퍼셉트의 구체적인 기능은 아래와 같다. 

• 이러한 애플리케이션 개발을 가속하는 로우-코드 소프트웨어 개발 키트를 제공한다.

• 애저 코그니티브 서비스(Azure Cognitive Services), 애저 머신러닝(Azure Machine Learning), 애저 라이브 비디오 애널리틱스(Azure Live Video Analytics), 애저 IoT 서비스와 통합된다.

• 애저의 기기 관리, AI 모델 개발, 애널리틱스 서비스와 통합하기 위해 여러 데브옵스 작업을 자동화한다. 

• 물체 탐지, 선반 분석, 이상 감지, 키워드 찾기 등을 위해 사전 구축된 애저 및 오픈소스 AI 모델 액세스를 제공한다. 

• 간헐적으로 연결되는 엣지 기기와 애저 클라우드 사이에서 신뢰할 수 있고 안전한 통신을 자동으로 보장한다. 

• 하드웨어 가속 AI 모듈이 내장된 지능형 카메라 및 음성 기반 스마트 오디오 기기 플랫폼을 제공한다.

물론 마이크로소프트도 애저 퍼셉트를 발표하면서 ‘책임감 있는 AI’를 언급했다. 하지만 생략해도 상관없을 정도로 뻔한 이야기였다. 마이크로소프트는 해당 제품의 핵심 기능을 설명한 후 다음과 같이 말했다. 
 

“애저 퍼셉트는 애저에서 실행되기 때문에 애저 플랫폼에 이미 내장된 보안 보호 기능을 포함한다. (생략) 개발 키트부터 서비스, 애저 AI 모델까지 애저 퍼셉트 플랫폼의 모든 구성 요소는 마이크로소프트의 책임감 있는 AI 원칙에 따라 작동하기 위해 마이크로소프트의 내부 평가 프로세스를 거쳤다. (생략) 애저 퍼셉트 팀은 엣지 기기에서의 책임감 있는 AI 개발 및 배포에 관한 우려를 이해하기 위해 현재 일부 초기 고객들과 협력하고 있으며, 앞으로 고객이 책임감 있는 AI 구현을 추구할 수 있도록 관련 문서와 툴킷(예: 페어런(Fairlearn), 인터프리트ML(InterpretML) 등)에 대한 액세스를 제공할 것이다.” 


이러한 툴킷은 AI 애플리케이션이 악용되지 않도록 하는 가드레일을 구축하는 데 꽤 유용할 것이다. 하지만 AI 애플리케이션이나 모든 AI 제품에 ‘책임감’을 내장할 수 있다는 개념에는 문제가 많다. 

부도덕한 사람들은 본래 설계 의도가 얼마나 좋았는지와는 상관없이 의도적으로 기술을 남용해 무책임한 결과를 도출할 수 있다. 이와 관련해 최근 페이스북은 “권력 기관에서 사용자 프라이버시를 침해할 수 없다는 게 보장되는 경우에만 스마트 글래스 제품에 얼굴 인식 기술을 적용하는 방안을 고려 중”이라고 발표한 바 있다. 

하지만 사용자 프라이버시를 악용하는 데 전혀 관심이 없거나 그럴 능력이 없는 권력기관을 본 적 있는가? 

또한 ‘책임감 있는 AI’라는 미명 하에 포함된 광범위하고 모호한 또는 정성적 원칙에 부합하는지 인증할 수 있는 구성 요소는 애초에 없다. AI 애플리케이션이 제대로 작동하는 데 필요한 게 무엇인지 알고 싶다면 데브옵스 워크플로우에 윤리적 AI 문제를 통합할 때 직면하는 어려움에 관한 최근 기사를 참고하라. 

--> 새로운 과제··· '윤리적 AI'를 위한 튜링 테스트 개발하기

여기서 논의된 바와 같이 완성된 제품에서 ‘책임감 있는’ 결과를 확보하기 위한 포괄적인 접근 방식에는 최소한 엄격한 이해관계자의 검토, 알고리즘 투명성, 품질 보증, 위험 완화 통제 및 체크포인트가 필요하다. 

그뿐만 아니라 애저 퍼셉트로 개발된 앱이 객관적으로 윤리, 공정성, 신뢰성, 안정성, 포용성, 투명성, 책임감 있는 결과를 생성하는지 인증할 때 사용할 수 있는 명확한 지표가 필요하다. 

마이크로소프트는 이러한 체크리스트를 개발하기 시작했지만 소프트웨어 개발 작업의 체크포인트에서 사용할 툴로 도입되기까지는 아직 먼 이야기다. 그리고 체크리스트만으로는 충분하지 않을 수 있다. 

만약 책임감 있는 AI가 사용자에게 표준 엣지 애플리케이션 패턴을 사용하도록 하는 것만큼 쉽다고 해도 마이크로소프트나 다른 업체가 이러한 원칙을 엄격하게 준수하는 방대한 엣지-AI 개발자 생태계를 구축할 수 있으리라 기대하긴 어렵다. 

마이크로소프트는 애저 퍼셉트에서 엣지-AI 솔루션을 개발, 학습, 배포하는 방법을 교육하는 가이드를 제공한다. 중요한 부분이긴 하지만 이보다 더 중요한 부분은 모든 애플리케이션 개발에 있어서 책임의 진정한 의미가 무엇인지도 논의해야 한다는 것이다. 

잠재적으로 사회에 부정적인 영향을 미칠 수 있는 엣지-AI와 같은 애플리케이션 승인 여부를 고려할 때 개발자는 다음에 대한 책임을 져야 한다. 

• 자제(Forbearance): 먼저 엣지-AI 애플리케이션을 제안 및 개발해야 하는지 고려한다. 만약 당위성이 없다면 해당 아이디어가 발전되지 않도록 막아야 한다. 예를 들어 전체주의 정권의 손에 들어갈 가능성이 높은 강력한 신형 인텔리전트 카메라는 개발하지 않는 게 최선일 것이다. 

• 승인(Clearance): 공식적인 엣지-AI 애플리케이션 개발 허가를 받기 전에 이것이 관련 규제 및 법률을 준수하는지, 그리고 법무팀 검토를 받았는지 확인한다. 스피커가 있는지조차 모를 정도로 먼 거리에 있는 사람의 말을 인식할 수 있는 스마트 스피커를 생각해 보자. 치매 또는 언어장애가 있는 사람에게는 유용할 수 있지만 그 외의 시나리오에 투입된다면 프라이버시 측면에서 최악의 상황이 일어날 수 있다. 

• 인내(Perseverance): 예측 가능한 상황에서 IT 관리자가 엣지-AI 애플리케이션의 컴플라이언스 상태를 지속해서 유지할 수 있는지 확인한다. 이를테면 스트리밍 비디오 녹화 시스템은 자동으로 새 데이터 소스를 발견하고 상관관계를 분석해 해당 대상에 대한 포괄적인 개인정보를 컴파일할 수 있다. 이런 시스템은 그렇게 하도록 프로그래밍하지 않더라도 몰래 프라이버시와 자유를 침해할 수 있다. 

개발자가 엣지-AI 애플리케이션 라이프사이클을 관리하면서 이런 원칙을 준수하지 않는다면 이는 애플리케이션이 무책임하게 작동하는 결과로 이어질 수 있다. AI 기반 솔루션의 핵심은 지속적으로 그리고 지능적으로 사람들을 보고 듣는 데 있기 때문이다. 

아직까지도 잘못될 리가 전혀 없어 보이는가?
 
ciokr@idg.co.kr
 



2021.03.29

시민 개발자가 알아야 할 '윤리적 AI' 구축 방법

James Kobielus | InfoWorld
‘신뢰하라 그러나 검증하라(Trust but verify)’는 좋은 말이지만 이를 현실적으로 AI에도 적용할 수 있을까? 
 
ⓒGetty Images

현재 AI 업계는 새로운 세대의 ‘시민 개발자’를 끌어안으면서 위험한 게임을 하고 있다. AI 솔루션 업체, 컨설턴트 등이 한쪽에선 ‘책임감 있는 AI(Responsible AI)’에 관해 그럴듯한 말을 하면서 다른 한쪽에서는 새로운 세대의 비-전문 개발자가 거의 모든 곳에 딥러닝, 머신러닝, 자연어 처리 등을 적용하도록 장려하고 있는 것이다. 

일각에서는 이렇게 책임감 있는 AI에 대한 관심을 두고 더 강력한 규제를 요구하는 목소리를 누그러뜨리려는 AI 업계의 전략이라고 비판하기도 한다. 물론 그 누구도 제공업체에서 고객이 제품을 사용하는 방식을 제어하리라 생각하진 않는다. 

하지만 프라이버시를 침해하고, 사회적 편견을 부추기며, 윤리적 실수를 저지르는 애플리케이션을 막기 위한 업계의 주된 접근방식은 책임감 있는 AI에 대한 일련의 문서를 발표하는 것에 불과하다. 최근 사례만 살펴봐도 마이크로소프트, 구글, 액센츄어, PwC, 딜로이트, 윤리적 AI 및 머신러닝 협회(The Institute for Ethical AI and Machine Learning) 등에서 이러한 문서를 발표했다.

AI 업체들의 또 다른 접근방식은 책임감 있는 AI 기능을 개발 툴과 런타임 플랫폼에 적용하는 것이다. 이와 관련해 마이크로소프트의 ‘애저 퍼셉트(Azure Percept)’를 살펴볼 필요가 있다. 현재 퍼블릭 프리뷰로 발표된 이 소프트웨어, 하드웨어, 서비스 번들은 엣지 구축을 위한 AI 애플리케이션의 대량 개발을 촉진하고자 고안됐다. 

기본적으로 ‘애저 퍼셉트’는 사회적 관점에서 보면 무책임할 수 있는 AI 애플리케이션 개발을 장려한다. 이는 스파이 활동, 감시, 도청 등이 주된 목적인 스마트 카메라나 스마트 스피커 등에 내장되는 AI를 말하는 것이다. 애저 퍼셉트의 구체적인 기능은 아래와 같다. 

• 이러한 애플리케이션 개발을 가속하는 로우-코드 소프트웨어 개발 키트를 제공한다.

• 애저 코그니티브 서비스(Azure Cognitive Services), 애저 머신러닝(Azure Machine Learning), 애저 라이브 비디오 애널리틱스(Azure Live Video Analytics), 애저 IoT 서비스와 통합된다.

• 애저의 기기 관리, AI 모델 개발, 애널리틱스 서비스와 통합하기 위해 여러 데브옵스 작업을 자동화한다. 

• 물체 탐지, 선반 분석, 이상 감지, 키워드 찾기 등을 위해 사전 구축된 애저 및 오픈소스 AI 모델 액세스를 제공한다. 

• 간헐적으로 연결되는 엣지 기기와 애저 클라우드 사이에서 신뢰할 수 있고 안전한 통신을 자동으로 보장한다. 

• 하드웨어 가속 AI 모듈이 내장된 지능형 카메라 및 음성 기반 스마트 오디오 기기 플랫폼을 제공한다.

물론 마이크로소프트도 애저 퍼셉트를 발표하면서 ‘책임감 있는 AI’를 언급했다. 하지만 생략해도 상관없을 정도로 뻔한 이야기였다. 마이크로소프트는 해당 제품의 핵심 기능을 설명한 후 다음과 같이 말했다. 
 

“애저 퍼셉트는 애저에서 실행되기 때문에 애저 플랫폼에 이미 내장된 보안 보호 기능을 포함한다. (생략) 개발 키트부터 서비스, 애저 AI 모델까지 애저 퍼셉트 플랫폼의 모든 구성 요소는 마이크로소프트의 책임감 있는 AI 원칙에 따라 작동하기 위해 마이크로소프트의 내부 평가 프로세스를 거쳤다. (생략) 애저 퍼셉트 팀은 엣지 기기에서의 책임감 있는 AI 개발 및 배포에 관한 우려를 이해하기 위해 현재 일부 초기 고객들과 협력하고 있으며, 앞으로 고객이 책임감 있는 AI 구현을 추구할 수 있도록 관련 문서와 툴킷(예: 페어런(Fairlearn), 인터프리트ML(InterpretML) 등)에 대한 액세스를 제공할 것이다.” 


이러한 툴킷은 AI 애플리케이션이 악용되지 않도록 하는 가드레일을 구축하는 데 꽤 유용할 것이다. 하지만 AI 애플리케이션이나 모든 AI 제품에 ‘책임감’을 내장할 수 있다는 개념에는 문제가 많다. 

부도덕한 사람들은 본래 설계 의도가 얼마나 좋았는지와는 상관없이 의도적으로 기술을 남용해 무책임한 결과를 도출할 수 있다. 이와 관련해 최근 페이스북은 “권력 기관에서 사용자 프라이버시를 침해할 수 없다는 게 보장되는 경우에만 스마트 글래스 제품에 얼굴 인식 기술을 적용하는 방안을 고려 중”이라고 발표한 바 있다. 

하지만 사용자 프라이버시를 악용하는 데 전혀 관심이 없거나 그럴 능력이 없는 권력기관을 본 적 있는가? 

또한 ‘책임감 있는 AI’라는 미명 하에 포함된 광범위하고 모호한 또는 정성적 원칙에 부합하는지 인증할 수 있는 구성 요소는 애초에 없다. AI 애플리케이션이 제대로 작동하는 데 필요한 게 무엇인지 알고 싶다면 데브옵스 워크플로우에 윤리적 AI 문제를 통합할 때 직면하는 어려움에 관한 최근 기사를 참고하라. 

--> 새로운 과제··· '윤리적 AI'를 위한 튜링 테스트 개발하기

여기서 논의된 바와 같이 완성된 제품에서 ‘책임감 있는’ 결과를 확보하기 위한 포괄적인 접근 방식에는 최소한 엄격한 이해관계자의 검토, 알고리즘 투명성, 품질 보증, 위험 완화 통제 및 체크포인트가 필요하다. 

그뿐만 아니라 애저 퍼셉트로 개발된 앱이 객관적으로 윤리, 공정성, 신뢰성, 안정성, 포용성, 투명성, 책임감 있는 결과를 생성하는지 인증할 때 사용할 수 있는 명확한 지표가 필요하다. 

마이크로소프트는 이러한 체크리스트를 개발하기 시작했지만 소프트웨어 개발 작업의 체크포인트에서 사용할 툴로 도입되기까지는 아직 먼 이야기다. 그리고 체크리스트만으로는 충분하지 않을 수 있다. 

만약 책임감 있는 AI가 사용자에게 표준 엣지 애플리케이션 패턴을 사용하도록 하는 것만큼 쉽다고 해도 마이크로소프트나 다른 업체가 이러한 원칙을 엄격하게 준수하는 방대한 엣지-AI 개발자 생태계를 구축할 수 있으리라 기대하긴 어렵다. 

마이크로소프트는 애저 퍼셉트에서 엣지-AI 솔루션을 개발, 학습, 배포하는 방법을 교육하는 가이드를 제공한다. 중요한 부분이긴 하지만 이보다 더 중요한 부분은 모든 애플리케이션 개발에 있어서 책임의 진정한 의미가 무엇인지도 논의해야 한다는 것이다. 

잠재적으로 사회에 부정적인 영향을 미칠 수 있는 엣지-AI와 같은 애플리케이션 승인 여부를 고려할 때 개발자는 다음에 대한 책임을 져야 한다. 

• 자제(Forbearance): 먼저 엣지-AI 애플리케이션을 제안 및 개발해야 하는지 고려한다. 만약 당위성이 없다면 해당 아이디어가 발전되지 않도록 막아야 한다. 예를 들어 전체주의 정권의 손에 들어갈 가능성이 높은 강력한 신형 인텔리전트 카메라는 개발하지 않는 게 최선일 것이다. 

• 승인(Clearance): 공식적인 엣지-AI 애플리케이션 개발 허가를 받기 전에 이것이 관련 규제 및 법률을 준수하는지, 그리고 법무팀 검토를 받았는지 확인한다. 스피커가 있는지조차 모를 정도로 먼 거리에 있는 사람의 말을 인식할 수 있는 스마트 스피커를 생각해 보자. 치매 또는 언어장애가 있는 사람에게는 유용할 수 있지만 그 외의 시나리오에 투입된다면 프라이버시 측면에서 최악의 상황이 일어날 수 있다. 

• 인내(Perseverance): 예측 가능한 상황에서 IT 관리자가 엣지-AI 애플리케이션의 컴플라이언스 상태를 지속해서 유지할 수 있는지 확인한다. 이를테면 스트리밍 비디오 녹화 시스템은 자동으로 새 데이터 소스를 발견하고 상관관계를 분석해 해당 대상에 대한 포괄적인 개인정보를 컴파일할 수 있다. 이런 시스템은 그렇게 하도록 프로그래밍하지 않더라도 몰래 프라이버시와 자유를 침해할 수 있다. 

개발자가 엣지-AI 애플리케이션 라이프사이클을 관리하면서 이런 원칙을 준수하지 않는다면 이는 애플리케이션이 무책임하게 작동하는 결과로 이어질 수 있다. AI 기반 솔루션의 핵심은 지속적으로 그리고 지능적으로 사람들을 보고 듣는 데 있기 때문이다. 

아직까지도 잘못될 리가 전혀 없어 보이는가?
 
ciokr@idg.co.kr
 

X