Offcanvas

AI

'학습용 데이터셋에서 편향성 식별 가능'··· IBM, 파이썬용 트러스티드 AI 툴킷 발표

2019.08.27 Paul Krill  |  InfoWorld
IBM 연구진이 머신러닝 모델의 편향성을 줄이고 AI를 학습할 데이터셋에서 편향성을 찾아내는 방법을 개발했다. AI 애플리케이션이 업무를 처리하고 결정하는 데 있어 편향성에 따른 차별을 없애는 데 도움이 될 전망이다.

이번 성과는 '신뢰할 수 있는 AI(Trusted AI)' 프로젝트의 연구 결과로, IBM은 이를 3개의 오픈소스 파이썬 기반 툴킷으로 공개했다. 이 중 최신 툴킷인 'AI익스플레인어빌리티 360(AI Explainability 360)'은 이달 초 공개됐는데, 여기에는 머신러닝 모델의 의사 결정 근거를 설명하는 데 사용하는 알고리즘이 포함돼 있다. 파이썬용 IBM 트러스티드 AI 툴킷 3종은 모두 깃허브에서 확인할 수 있으며 주요 패키지는 다음과 같다.

- AI익스플레인어빌리티 360(AI Explainability 360). AIX360이라고도 불린다. 다양한 측면에서 머신러닝 모델의 설명가능성(explainability)을 구현하는 알고리즘과 설명가능성을 판단하는 기준 지표를 제공한다. 이 툴킷은 모델이 AI 애플리케이션 수명 주기 전체에 걸쳐 다양한 방법으로 라벨을 예측하는 방법을 이해하는 데 도움을 준다. 금융, HCM, 교육, 헬스케어 등 업종별로 사용할 수 있도록 지원한다. AIX360 툴킷은 지난 8월 8일에 공개됐으며 깃허브에서 다운로드할 수 있다. API 문서도 제공한다.

- AI 페어니스 360(AI Fairness 360, AIF360). 데이터셋과 머신러닝 모델, 알고리즘에서 제거해야 할 불필요한 편향성을 확인하는 지표를 제시한다. 이 툴킷을 이용하면 머신러닝 모델이 특정 특권 그룹에 시스템 측면의 가산점을 부여하지 않도록 할 수 있다. 보통 학습 데이터의 편향성은 라벨에 대한 선입견 혹은 너무 적은(많은) 샘플링에서 발생하는데, 결국 편향적인 의사결정을 하는 모델로 이어질 수 있다. AIF360에는 신용 점수 산출, 의료비 지출 예측, 성별에 따른 얼굴 인식 같은 작업의 튜토리얼도 포함돼 있다. AIF360 코드는 깃허브에서 찾을 수 있다. 문서 자료도 있다.

- 애드버세어리얼 로버스트니스 툴박스(Adversarial Robustness Toolbox). 개발자와 연구자가 적대적 공격(adversarial attacks)으로부터 DNN(Deep Neural Networks)을 방어하고 AI 시스템을 더 안전하고 신뢰할 수 있게 하는 파이썬 라이브러리다. DNN은 적대적 사례, 즉 DNN이 원하는 반응을 만들어내도록 고의로 조작된 입력값에 취약하다. 이 툴박스는 이에 대한 방어 기술을 만들어 적용할 때 유용하다. DNN 방어에는 DNN 입력을 전처리하는 등 모델의 견고함과 하드닝(hardening)을 측정하는 것도 포함된다. 또한 적대자가 조작했을 가능성이 있는 모든 입력값을 식별하는 런타임 감지 방법을 활용하기도 한다. 애드버세어리얼 로버스트니스 툴박스는 깃허브에서 다운로드할 수 있다.

이와 함께 IBM은 AI 모델의 책임성 관련된 툴을 추가로 공개하는 것을 검토하고 있다. 모델의 전체 수명에 걸쳐 그 출처와 데이터 변화 명세를 관리하는 툴로, 이를 이용하면 모델에 대한 신뢰를 높일 수 있다. ciokr@idg.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.