Offcanvas

AI / CIO / How To / 머신러닝|딥러닝 / 비즈니스|경제 / 빅데이터 | 애널리틱스 / 애플리케이션

김진철의 How-to-Big Data | 빅데이터와 인공지능 (3)

2018.08.27 김진철  |  CIO KR


빅데이터 분석에서 해석가능한 인공지능 모델의 중요성
2017년 1월, 스위스 다보스에서 매년 열리는 세계경제포럼(World Economic Forum)에서 현 IBM의 CEO인 지니 로메티 회장은 IBM의 인지 컴퓨팅(Cognitive Computing) 기술이 사회에 기여하기 위해 갖추어야 할 윤리적인 조건에 관해 얘기하고, 이런 세 가지 윤리적인 조건을 IBM의 모든 인지 컴퓨팅 기술과 서비스가 지켜나갈 것을 천명한 바 있다[18-20]. IBM은 기업 컴퓨팅(enterprise computing) 시장에서 활용되는 인공지능 기술을 인지 컴퓨팅이라는 말로 계속 불러왔다. IBM이 얘기하는 기업 컴퓨팅 시장에서 인지 컴퓨팅 기술의 윤리적인 요건은 다음과 같다[18].

1. 목적(Purpose): IBM이 개발하고 제공하는 인공지능과 인지 시스템의 목적은 인간 지능을 증강하고 보조하는(augment) 것이다. IBM의 인공지능 및 인지 시스템 기술, 상품과 서비스, 정책은 모두 인간의 능력과 전문성, 잠재력을 개선하고 확장하기 위한 목적으로 디자인될 것이다. 이러한 IBM의 입장은 단순한 원칙이 아니라 과학에 근거한 것이다. 인지 시스템은 현실적으로 의식이나 독립적인 조직을 갖지 않을 것이며, 사람들과 사회가 사용하는 프로세스, 시스템, 상품과 서비스에 내재(embedded)되어 인간의 통제하에 사용될 것이다.

2. 투명성(Transparency): 인지 시스템이 세계를 변혁시키는 그 잠재력을 온전히 발휘하도록 하기 위해, 인지 시스템이 내리는 추천, 판단, 그리고 인지 시스템의 활용에 사람들이 확신을 갖도록 해야 한다. 이를 위해, IBM은 개발, 구축하는 인지 솔루션에서 인공지능이 언제, 어떤 목적으로 활용되며, 이런 인공지능을 학습시키고 향상하기 위해 사용한 데이터 및 데이터 출처, 그리고 전문성을 명확하게 밝힌다. 또한, 고객사들이 인공지능과 인지 시스템을 이용한 비즈니스 모델, 지적재산권을 온전히 소유하고 고객사에서 인공지능과 인지 시스템을 통해 얻는 장점들에 대해서도 명료하게 하여 고객사의 데이터와 통찰을 보호하고 파트너와 산업 내 협력 조직들이 비슷한 실무 경험을 활용할 수 있도록 한다.

3. 기술(Skill): 인공지능과 인지 시스템으로 열리게 될 새로운 시대는 인간이 제 역할을 하지 않는다면 실현되지 않는다. 인공지능 및 인지 시스템 기술은 인간의 지능과 전문성을 증강하고 인간과 협력하여 일하기 위한 것이기 때문이다. 이런 새로운 시대를 위해 IBM은 학생들과 작업자들, 시민들이 인지 시스템과의 관계 속에서 효과적으로 안전하게 일할 수 있는 기술과 지식을 습득할 수 있도록 도우며, 이들이 인공지능 경제 체제에서 나타날 새로운 직업과 직무를 쉽게 수행할 수 있도록 한다.

위에서 인공지능 및 인지 컴퓨팅 기술이 가져야 할 투명성은 이들 기술의 활용되는 목적을 달성하고, 이러한 새로운 기술이 활용될 새로운 시대의 경제 체제에 시민들과 학생들이 새로운 직업을 찾고 적응할 수 있도록 하는 데 매우 중요한 역할을 하게 된다. 이런 인공지능 및 인지 컴퓨팅 기술의 투명성을 보장하기 위해 중요한 측면이 바로 인공지능 기술의 해석가능성이다.

필자는 앞의 일곱번째, 여덟번째 글에서 빅데이터 비즈니스에서 딥러닝을 비롯한 인공지능 기술의 가치는 바로 데이터 처리 및 분석, 가공 과정의 자동화에서 온다고 얘기한 바 있다. 그렇다면, 과거 사람들이 수행하던 일들이 인공지능 기술을 통해 자동화되어 사람들을 보조하거나 사람들을 대신해 일하게 되었을 때, 인공지능 기술을 통해 작업하는 로봇이나 소프트웨어가 사람들과 같은 기준으로 작업하거나 일을 한다는 것을 어떻게 알 수 있을까?

이 문제는 경우에 따라서 매우 중요한 문제가 될 수 있다. 드라마나 영화에서 자주 나타나는 예를 들어 같이 한번 생각해보자. 미국 드라마 ‘퍼슨 오브 인터레스트’와 같이 인공지능이 다양한 데이터를 분석하여 잠재적인 테러리스트나 범죄자를 사전에 가려내어 예측하는 시스템이 있다고 가정해보자. 인공지능이 어떤 기준과 근거로 지목된 사람이 범죄자가 될지 아닐지를 판단했는지 알 수 없다면, 억울한 사람이 조작된 데이터로 억울하게 범죄자로 몰릴 수 있는 상황이 생기지 않으리라고 단정할 수 없다.

위와 같은 테러 및 범죄 예측 분석의 경우와 함께 또 사회적으로 민감한 결과를 불러올 수 있는 사례는 최근 많이 언급되고 있는 법률 해석 및 재판과 관련된 인공지능 기술이다. 과연 인공지능이 사람들의 도덕 및 가치, 양심과 인간성에 대해 온전하게 배우고 이에 근거해서 치우치지 않는 판단을 할 수 있을까? 독립적인 판단은 하지 못하도록 시스템을 만든다고 하더라도, 위와 같이 사람을 사람답게 하는 요소들을 적절하게 고려해서 판사들이 법리적인 해석을 할 수 있도록 적절하게 보조하거나 조언, 판례들을 추천할 수 있을까? 인공지능이 추천, 제안한 판례와 법리에 대해서 판사들이 믿고 활용할 수 있을까? 법률 및 판례 분석 등에 사용되는 사법 전문가 시스템은 인공지능 기술 중 가장 먼저 현실화될 기술로 생각보다 빨리 사회에 파장을 일으킬 수 있다.

최근 많이 연구되는 의료 영상 분석 및 진단 보조 인공지능과 같은 기술도 비슷한 문제가 있다. 인공지능이 진단한 질병으로 인해 환자가 받은 처치가 적절하지 않아 의료사고가 발생했을 경우, 그 책임은 누가 져야 할 것인가? 인간과 인공지능의 협진, 또는 인공지능의 도움을 받아 의사가 질병의 진단과 처방을 했을 때 일어나는 의료 사고에 대해서는 누가 어떻게 책임을 질 것인가? 인공지능과 관련된 의료 사고의 책임 소재를 조사하기 위해 인공지능의 데이터 처리 및 진단 과정이 어떻게 해당 질병에 대한 진단 결과에 이르렀는지 어떤 방식으로 조사해야 할 것인가?

위의 모든 문제는 인공지능의 의사 결정 및 작동 방식을 어떻게 분석하고 해석할 것인가에 대한 문제와 깊게 연관되어 있다. 현재의 인공지능 기술은 사람의 지능에 비하면 아직 초보적인 단계임에도 불구하고, 인공지능이 학습의 대상이 되는 작업을 어떻게 배우고 무엇을 배웠는지 해석할 방법은 극히 제한적이며 알 방법이 거의 없다.

특히 요즘 많이 인기를 끌고 있는 딥러닝과 심층신경망 모델은 자기인코더(Autoencoder) 모델과 같은 일부 표현 학습(representation learning) 모델과 베이지안 학습(Bayesian learning) 모델을 제외하고는 모델이 배운 것이 무엇인지 해석하는 것은 거의 불가능하다. 신경망 모델이 학습한 것이 무엇인지 인간이 해석할 수 없다면 인공지능 기술의 오용이나 결함으로 인해 발생한 사고에 대한 법률적인, 사회적인 문제에 대처하기 어려울 수 있다.

위와 같은 문제의식으로 최근 인공지능 기술의 해석가능성에 대한 연구가 활발해지고 있다. 인공지능 기술의 해석가능성 문제를 미국 방위고등연구계획국(Defense Advanced Research Projects Agency; DARPA)의 XAI 프로그램에서는 크게 세 가지 방향으로 접근하고 있다[22-24].



첫번째는, 사람이 해석할 인공지능 모델이 학습한 것과 분석 대상이 되는 인공지능 모델의 학습 내용을 비교함으로써 이해하는 방법이다. 이를 ‘모델 귀납(Model Induction)’ 방법이라고 한다[22]. 앞에서 소개한 피터 사도프스키와 공동 연구자들이 ‘지식 증류’ 방법을 이용해 딥러닝 기반 분류기(classifier)로 힉스 입자 이벤트 분류 성능을 높인 결과가 그에 해당한다.

피터 사도프스키가 사용한 모델은 ‘전문가 혼합(Mixture of Experts)’ 또는 ‘앙상블(Ensemble)’ 모델이라고 부르는 것으로, 특정한 카테고리, 또는 영역의 데이터만을 전문적으로 학습한 여러 개의 신경망 모델을 이용해 특정한 작업 수행 성능을 높이는 방식의 신경망 모델이다. 이렇게 전문가 신경망들이 학습한 내용들을 하나의 신경망이 수행할 수 있도록 학습시키는 ‘지식 증류’와 같은 방법을 사용하면 신경망 모델이 어떤 것을 학습하고 어떤 일들을 수행할 수 있는지, 학습한 내용을 인간이 이해하고 있는 전문가 신경망들의 학습 내용 및 분석 결과를 가지고 가늠할 수 있다.

‘지식 증류’를 통해 학습시킨 얕은 신경망은 여러 개의 전문가 신경망을 사용해 특정 작업을 수행하는 것보다 계산량이 적어 연산 성능을 쉽게 높일 수 있을 뿐만 아니라, 각 전문가 신경망이 학습한 ‘숨은 지식’도 전달할 수 있어 연산 성능과 작업 성능을 동시에 높이는데 효과적인 방법으로 활용할 수 있다.

두번째로 해석가능한 인공지능 모델을 만드는 방법은 해석가능한 방법론을 이용해서 새로운 방식으로 인공지능 모델을 만드는 것이다[22]. 이를 ‘해석가능한 모델(Interpretable Model)’ 방법론이라고 하는데, 요즘 많은 관심을 받는 확률론적 그래프 모델(Probabilistic Graphical Model; PGM)이 대표적으로 해석가능한 인공지능 모델 개발 방법론이다.

딥러닝의 기반이 되는 심층신경망 모델은 대개 심층신경망의 뼈대인 노드(node) 또는 뉴런(neuron)과 가중치 매트릭스(weight matrix) 또는 시냅스(synapse)에서 학습된 것이 무엇인지, 어떤 의미를 가지는지 해석하기가 쉽지 않다. 하지만, 최근 많이 연구되고 있는 생성 베이지안 모델(Generative Bayesian Model) 관점에서 심층신경망 모델을 디자인하는 심층 베이지안 모델(Deep Bayesian Model), 앞에서 언급한 확률론적 그래프 모델(Probabilistic Graphical Model; PGM)을 이용해서 심층신경망을 디자인하게 되면 심층신경망의 노드와 가중치 매트릭스가 의미하는 것이 무엇인지 해석할 수 있게 된다.

세번째로 해석가능한 인공지능 모델을 만드는 방법은 기존 인공지능 모델을 해석가능한 모델로 만들 수 있도록 변형하거나 변경하여 해석가능한 출력과 모델로 만들어 해석하는 것이다[22]. 이것은 딥러닝과 같은 ‘표상 학습(representation learning)’ 방법에 사용할 수 있는 방법이다.



딥러닝을 유명하게 만든 딥러닝 모델 중의 하나인 자기인코더 모델은 입력과 출력에 학습하려는 자질(feature)을 가진 데이터를 똑같이 주어 데이터를 표현하는 자질(feature) 및 표상(representation)을 네트워크가 스스로 학습할 수 있도록 하는 딥러닝 모델이다. 자기인코더가 영상으로부터 학습한 자질들은 공간과 주파수 대역 모두에서 국소화(localize)된 웨이브렛(wavelet) 같은 자질도 있고, 사람 얼굴 영상 데이터를 학습할 때에는 얼굴의 형상이나 눈, 코, 입의 공통된 특징만을 추출한 자질을 학습하기도 있다. 이런 자질들은 사람이 학습한 모델을 관찰하였을 때 모델이 학습한 자질이 무엇을 의미하는지 해석할 수 있다.

이런 자기인코더 모델과 같이 기존의 심층신경망 모델과 같은 인공지능 모델을 학습시키는 과정에서 사람이 해석할 수 있는 자질을 학습할 수 있도록 인공지능 모델을 변형하거나 보완하여 해석가능한 인공지능 모델을 만드는 것을 미국 방위고등연구계획국(Defense Advanced Research Projects Agency; DARPA)의 데이비드 거닝(David Gunning)은 ‘심층 해석(Deep Explanation)’[22]이라고 불렀다.

위와 같은 아이디어로 DARPA에서는 현재 XAI 연구 프로그램을 2021년까지 진행하여 소프트웨어 도구와 해석가능한 인공지능 모델을 개발하는 것을 목표로 하고 있다. 해석 가능한 인공지능 모델은 최근 2~3년 동안 학계에서도 많은 관심을 끌기 시작하여 딥러닝 연구의 총본산인 신경정보처리시스템 학술회의(Neural Information Processing Systems; NIPS)에서는 2017년에 해석가능한 딥러닝 모델에 대한 독립적인 워크샵이 열리기도 했다[25]. 역시 인공지능 분야의 저명한 학술회의 중 하나인 국제 인공지능 연합 학술회의(International Joint Conference on Artificial Intelligence; IJCAI)에서도 2017년에 XAI 워크숍이 같이 열리기도 했을 만큼 최근 해석가능한 인공지능 기술에 대한 관심이 높아지고 있다.

CERN의 LHC 연구자들은 LHC 빅데이터 처리를 하면서 초당 1TB의 규모로 쏟아지는 원시 데이터에 물리학적인 메타데이터를 붙이고 관심 있는 이벤트를 가진 데이터만 자동으로 골라내는 데이터 처리 자동화의 용도로 인공지능 기술의 일종인 패턴 인식과 머신러닝 기술을 주로 사용했다. 최근에는 딥러닝 모델과 같은 고급 인공지능 기술이 가진 일반화(generalization) 능력을 이용해서 연구자들이 미처 발견하지 못할 수 있는 의미 있는 새로운 물리학적 현상을 발견하는 분석 도구로써도 활용하려고 하고 있다.

LHC 빅데이터 활용의 일차적인 목적은 물질에 대한 근본적인 지식을 밝혀내는 것이다. 이렇게 과학 실험과 연구 과정에서의 데이터 분석에서 지식과 통찰을 얻기 위해서는 데이터를 해석하는 과정이 필요하다. 데이터 분석과 해석을 위해 인공지능 기술을 사용할 때에는 반드시 인공지능이 어떻게 데이터로부터 결과를 내었는지 그 과정을 사람이 해석할 수 있어야 한다. 만약 인공지능의 추론 과정을 사람이 해석할 수 없다면 인공지능을 통해 얻은 결론과 통찰은 인공지능에만 의미 있는 지식이 되고 정작 인공지능을 사용해 데이터를 분석한 과학자에게는 아무런 의미 없는 지식이 되고 만다. 이것은 다른 사람이 나를 대신해 시험공부를 열심히 해준다고 해서 내가 시험을 잘 볼 수 있는 것은 아닌 것에 비유할 수 있다.

일반 조직이 빅데이터 비즈니스에 인공지능 기술을 사용할 때에도 마찬가지이다. 인공지능을 이용한 데이터 처리 및 비즈니스 프로세스 자동화에 인공지능 기술을 사용할 경우에는 비즈니스의 스피드와 기민성을 높여서 그 효과를 얻게 되지만, 데이터 분석에 인공지능 기술을 사용할 때에는 비즈니스 도메인에 의미 있는 해석을 할 수 있도록 인공지능 기술이 디자인되어야 한다. 인공지능이 비즈니스 데이터에서 얻은 결론이 비즈니스 도메인에 맞는 해석이 가능하도록 인공지능의 추론 과정을 분석할 수 없다면 인공지능이 데이터 분석을 통해 얻은 결론과 통찰은 사람들과 비즈니스 조직에 아무런 쓸모가 없거나 오히려 위험하게 오용될 수 있다.

최근 유럽의 강력한 개인정보보호 규제인 GDPR(General Data Protection Regulation)이 시행되기 시작하면서, 인공지능 기술을 이용한 자동화된 개인정보 처리와 분석 과정(GDPR에서는 이를 ‘프로파일링(profiling)’이라고 한다)에서 해석가능한 인공지능의 중요성이 다시 주목받고 있다. GDPR에서는 일반인과 같은 정보주체가 자동화된 프로파일링 과정에 따른 결정 사항을 거부하거나 그 설명을 요구할 수 있는 권리를 가진다[30-31].

이렇기 때문에 유럽에서 인공지능 기술을 이용한 자동화된 개인 정보 처리 및 예측 분석 등의 고급 분석 기술을 이용해 지능형 서비스를 제공하는 회사들은 GDPR의 적용을 받게 되어 자동화된 프로파일링 처리 과정에서 얻은 결정 과정에 대한 설명을 제공할 수 있어야 한다[30-31]. GDPR 법안이 유럽 내에서의 개인 정보 보호 표준이 아니라 글로벌 표준으로서 개인 정보 처리의 기준이 될 가능성이 높기 때문에 구글과 같이 딥러닝 및 머신러닝 기술을 많이 사용한 빅데이터 처리를 하는 기업들은 해석가능한 인공지능 기술이 더욱 필요하게 되었다.

아직 해석가능한 인공지능 기술 개발은 학계에서 전문적으로 논의되는 초기 단계의 기술이다. GDPR과 같은 강화된 개인정보 보호 규제가 시행되고 인공지능이 내린 결정이 일반 사회에 미치는 영향이 커질 수 있음이 인지되기 시작하면서 점차 엔터프라이즈 정보 기술로서도 중요성이 높아지고 있다.

해석가능한 인공지능 기술은 데이터 분석을 위한 기술로서도 의미가 있지만, 안전한 인공지능을 만드는 기술로서도 의미가 있다. 열 길 물속은 알아도 한 길 사람속은 모른다는 말은 그만큼 사람이 생각하는 것을 알 수 없어 사람이 위험한 존재라는 의미를 전달하는 속담이기도 하다. 인공지능이 추론하고 생각하는 과정을 분석하고 해석하는 기술이 없다면 인공지능이 인류를 위해 도움이 되는 선한 존재로서 동작할지, 아니면 해를 입힐 수 있는 존재로서 동작할지 알 수 없을 뿐만 아니라, 인공지능이 인간에게 유익하게 동작하도록 인간이 통제하고 다룰 수 없게 될 것이다.

해석가능한 인공지능 기술은 상업화하기에는 아직 먼 기술이지만, 빅데이터 인프라와 로봇, 드론, 자율주행차 등의 인공지능을 이용한 사이버 물리 시스템(cyber-physical system)이 사회의 기반 인프라로서 자리 잡기 위해서는 꼭 필요한 기술이다. 인공지능을 이용한 데이터 분석과 지능형 서비스, 상품으로 시장을 개척하려는 기업들은 기업이 만드는 인공지능이 좀더 안전하고 사회에 도움이 되는 상품으로서 쓰일 수 있도록 만드는데 해석가능한 인공지능 기술이 앞으로 필요한 기술로서 자리 잡게 될 것이기 때문에 관심을 가지고 지속해서 모니터링하는 것이 좋다.

데이터 기반 비즈니스를 위한 데이터 과학자들과 지능형 시스템을 개발하는 소프트웨어 엔지니어들도 해석가능한 인공지능 기술의 동향과 발전을 주의 깊게 모니터링하고 꾸준히 익히는 것이 좋을 것이다. 데이터 과학자들과 소프트웨어 엔지니어들이 개발하는 인공지능 시스템을 좀더 안전하고 예측가능한 시스템으로 만들면서, 인공지능이 얻은 지식과 통찰을 데이터 분석에 효과적으로 사용하기 위해서도 중요한 기술이다. 해석가능한 인공지능 기술은 데이터 과학자들의 데이터 분석과 지식 창출 역량을 증강하여 기업의 위험 대처 능력을 크게 향상해 줄 것이다.

[참고문헌]
[1] 김진철, “LHC에서 배우는 빅데이터와 machine learning 활용 방안”, 2016년 9월 28일, A CIO Conversation for Technology Leadership – Breakfast Roundtable 발표 자료
[2] Peter Sadowski, Julian Collado, Daniel Whiteson, Pierre Baldi, “Deep Learning, Dark Knowledge, and Dark Matter,” Journal of Machine Learning Research - Workshop and Conference Proceedings V. 42, pp.81-97, 2015. (http://proceedings.mlr.press/v42/sado14.pdf)
[3] P. Baldi, P. Sadowski, and D. Whiteson, “Searching for Exotic Particles in High-Energy Physics with Deep Learning,” Nature Communications, 5:4308, 2014. (doi: 10.1038/ncomms5308 , http://www.nature.com/ncomms/2014/140702/ncomms5308/full/ncomms5308.html.)
[4] P. Baldi, P. Sadowski, and D. Whiteson, “Enhanced Higgs Boson to τ+τ- Search with Deep Learning,” Phys. Rev. Lett., 114(11):111801, 2015. (doi: 10.1103/PhysRevLett.114.111801).
[5] Peter Sadowski, “Deep Learning for Experimental Physics,” dissertation, UNIVERSITY OF CALIFORNIA, IRVINE, 2016.
[6] Kyle Crammer, “Particle Physics and Machine Learning,” (https://erez.weizmann.ac.il/pls/htmldb/f?p=101:58:::NO:RP:P58_CODE,P58_FILE:5398,Y)
[7] Geoffrey Hinton, Oriol Vinyals, Jeff Dean, “Distilling the Knowledge in a Neural Network,” Proceedings of Deep Learning and Representation Learning Workshop in Neural Information Processing Systems(NIPS) 2014, arXiv:1503.02531, 2015. (http://arxiv.org/abs/1503.02531)
[8] C. Bucila, R. Caruana, and A. Niculescu-Mizil, “Model compression,” In Proceedings of the 12th ACMSIGKDD International Conference on Knowledge Discovery and Data Mining(KDD’06), pages 535–541, New York, NY, USA, 2006. ACM.
[9] J. M. Butterworth, A. R. Davison, M. Rubin, and G. P. Salam, “Jet substructure as a new Higgs search channel at the LHC,” Phys. Rev. Lett., 100:242001, 2008. (doi: 10.1103/PhysRevLett.100.242001.) [“Jet tagging”에 관한 논문]
[10] D. E. Soper and M. Spannowsky, “Finding physics signals with shower deconstruction,” Phys. Rev. D, 84:074002, 2011. doi: 10.1103/PhysRevD.84.074002. [“Theoretical progress in the microphysics of jet formation”]
[11] D. E. Soper and M. Spannowsky, “Finding top quarks with shower deconstruction,” Phys. Rev. D, 87:054012, 2013. doi: 10.1103/PhysRevD.87.054012. [“Theoretical progress in the microphysics of jet formation”]
[12] I. W. Stewart, F. J. Tackmann, and W. J. Waalewijn, “Dissecting Soft Radiation with Factorization,” Phys. Rev. Lett., 114(9):092001, 2015. doi: 10.1103/PhysRevLett.114.092001. [“Theoretical progress in the microphysics of jet formation”]
[13] A. J. Larkoski, I. Moult, D. Neill, “Analytic boosted boson discrimination,” J. High Energ. Phys. (2016) 2016: 117. (https://doi.org/10.1007/JHEP05(2016)117.) [“No complete analytical model for classification directly from theoretical principles”, “expert feature offer powerful insight”]
[14] J. Dolen, P. Harris, S. Marzani, S. Rappoccio, and N. Tran, “Thinking outside the ROCs: Designing Decorrelated Taggers (DDT) for jet substructure,” J. High Energ. Phys. (2016) 2016: 156. (https://doi.org/10.1007/JHEP05(2016)156)
[15] Ariel Schwartzman, “Image Processing, Computer Vision and Deep Learning - New approaches to the analysis and physics interpretation of LHC events,” ACAT 2016, Valparaiso, Chile, January 2016. (https://indico.cern.ch/event/397113/contributions/1837827/attachments/1213258/1770340/ACAT_Ariel.pdf)
[16] Luke de Oliveira, Michael Kagan, Lester Mackey, Benjamin Nachman, Ariel Schwartzman, “Jet-images — deep learning edition,” Journal of High Energy Physics, July 2016, 2016:69. (https://link.springer.com/article/10.1007/JHEP07(2016)069)
[17] Michela Paganini, “Machine Learning Algorithms for b-Jet Tagging at the ATLAS Experiment,” CERN Document Server Report No. ATL-PHYS-PROC-2017-211, arXiv:1711.08811, Proceedings of the 18th International Workshop on Advanced Computing and Analysis Techniques in Physics Research (ACAT 2017), 2017. (http://cds.cern.ch/record/2289214/files/ATL-PHYS-PROC-2017-211.pdf?version=1)
[18] IBM THINK Blog, “Transparency and Trust in the Cognitive Era,” January 17, 2017. (https://www.ibm.com/blogs/think/2017/01/ibm-cognitive-principles/ )
[19] Alison DeNisco Rayome, “3 guiding principles for ethical AI, from IBM CEO Ginni Rometty,” TechRepublic, January 17, 2017. (https://www.techrepublic.com/article/3-guiding-principles-for-ethical-ai-from-ibm-ceo-ginni-rometty/)
[20] Larry Dignan, “IBM's Rometty lays out AI considerations, ethical principles,” ZDNet, January 17, 2017. (https://www.zdnet.com/article/ibms-rometty-lays-out-ai-considerations-ethical-principles/)
[21] Tim Hwang, “Fulfilling the Potential of AI Requires Getting Interpretability Right,“ IBM iX, December 14, 2017. (https://www.ibm.com/blogs/insights-on-business/ibmix/fulfilling-potential-ai-requires-getting-interpretability-right/)
[22] Mr. David Gunning, “Explainable Artificial Intelligence (XAI),” Defense Advanced Research Projects Agency(DARPA), Program Information. (https://www.darpa.mil/program/explainable-artificial-intelligence)
[23] BATR, “DARPA's XAI Explainable Artificial Intelligence Future,” The Market Oracle, May 15, 2018. (http://www.marketoracle.co.uk/Article62285.html)
[24] 금융보안원 보안기술연구팀, “설명 가능한 인공지능(eXplainable AI, XAI) 소개,” 보안연구부-2018-020, 금융보안원, 2018.
[25] Interpretable ML Symposium NIPS 2017, 7 December, Long Beach, California. (http://interpretable.ml/)
[26] IJCAI 2017 Workshop on Explainable Artificial Intelligence (XAI), Melbourne, Australia, 20 August 2017. (http://home.earthlink.net/~dwaha/research/meetings/ijcai17-xai/)
[27] George Nott, “Explainable Artificial Intelligence’: Cracking open the black box of AI,” Computerworld, 10 April, 2017. (https://www.computerworld.com.au/article/617359/explainable-artificial-intelligence-cracking-open-black-box-ai/)
[28] Emily Webber, “Similarity Cracks the Code Of Explainable AI,” simMachines, October 20, 2017. (http://simmachines.com/similarity-cracks-code-explainable-ai/)
[29] William Vorhies, “GDPR and the Paradox of Interpretability,” Data Science Central, March 26, 2018. (https://www.datasciencecentral.com/profiles/blogs/gdpr-and-the-paradox-of-interpretability)
[30] Council of the European Union, “REGULATION (EU) 2016/… OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL of on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation),” 5419/16, Brussels, 6 April 2016.
[31] 행정자치부, 한국인터넷진흥원, “우리 기업을 위한 「유럽 일반 개인정보 보호법」안내서,” 2017년 4월. (http://www.kisa.or.kr/uploadfile/201705/201705101555446057.pdf)
 

*김진철 박사는 1997년 한국과학기술원에서 물리학 학사, 1999년 포항공과대학교에서 인공신경망에 대한 연구로 석사 학위를, 2005년 레이저-플라즈마 가속기에 대한 연구로 박사 학위를 받았다. 2005년부터 유럽입자물리학연구소(CERN)의 LHC 데이터 그리드 구축, 개발에 참여, LHC 빅데이터 인프라를 위한 미들웨어 및 데이터 분석 기술을 연구하였다. 이후 한국과학기술정보연구원(KISTI), 포항공과대학교, 삼성SDS를 거쳐 2013년부터 SK텔레콤에서 클라우드 컴퓨팅과 인공지능 기술을 연구하고 있다. 빅데이터와 인공지능 기술의 기업 활용 방안에 대해 최근 다수의 초청 강연 및 컨설팅을 수행하였다. ciokr@idg.co.kr
 
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.