Offcanvas
2020.10.30 김진철  |  CIO KR

인공지능 모델 학습과 개발 비용의 급증
넷째로, 최근 딥러닝 모델의 복잡도와 크기가 커지면서 딥러닝 기반 인공지능 모델을 학습시키기 위해 필요한 비용이 급격하게 증가하고 있다는 것이다. 이런 경향은 최근 BERT와 GPT-3로 대표되는 언어 모델의 대형화 경쟁 과정에서 적나라하게 드러나고 있다.

일단 딥러닝 기반 인공지능 소프트웨어 모듈의 개발 과정에서 GPU 사용은 거의 기본이 되어가고 있는데, 이 GPU가 벌써 일반 CPU에 비해 크게 비싼 것이 인공지능 기술 도입 과정의 비용 증가를 부추기는 한 원인이 되었다.

GPU가 장착된 고성능 컴퓨팅 서버를 직접 구매하지 않고 클라우드 컴퓨팅 자원을 사용하더라도, 일반 가상 머신에 비해 GPU 가상 머신은 단가가 많이 비싸기 때문에 여전히 딥러닝 기반 인공지능을 활용하는 기업에 큰 비용 부담을 안겨주고 있다.

그림 2. 인공지능 시스템을 학습 과정에 소요되는 컴퓨팅 용량의 변화와 구분되는 두 시대. (Two Distinct Eras of Compute Usage in Training AI Systems) (그림 출처: https://openai.com/blog/ai-and-compute/, [11–12])

그림 2를 보면, 2012년도 AlexNet를 비롯한 딥러닝 모델의 발전이 가속화되면서, 딥러닝 모델을 학습시키는데 필요한 연산량이 3개월에서 4개월마다 두 배씩 증가하는 추세로 바뀐 것이 분명하게 드러난다. 이렇게 딥러닝에 필요한 연산량이 급격하게 증가하면서, 이를 위한 비용도 급격하게 증가하게 되어 일반 기업이 인공지능 기술을 활용하는 것에 큰 장애가 되고 있다.

이뿐만이 아니다. 계산에 필요한 연산량이 많다는 것은 이에 따르는 전기 에너지 소비량도 늘어난다는 의미이다. 아직까지 딥러닝을 비롯한 기계 학습을 위한 연산에 어느 정도 비용이 드는지 정확하게 추정한 문헌은 많지 않지만, 일부는 알려져 있다. 

예를 들어, 인공지능 기술을 가장 많이 사용하는 인터넷 서비스 기업 중의 하나인 페이스북 AI 센터의 센터장인 제롬 페젠티(Jerome Pesenti)의 말에 따르면, BERT나 GPT-3 정도 되는 가장 큰 딥러닝 모델을 한 번 학습시키는데 최소한 수백만 달러, 즉 한화로 수십 억 원에 달하는 전기료가 들어간다고 한다[6].

최근 딥러닝을 위한 심층 신경망 모델을 최적화하고 새로운 심층 신경망 모델을 찾아내는데 많이 쓰이는 AutoML와 같은 도구로 “신경망 아키텍처 탐색(Neural Architecture Search)”을 통해 대형 언어 모델을 학습시킬 경우, 심층 신경망 기반의 언어 모델 학습에 어마어마한 비용과 에너지가 필요하다는 것이 최근 발표된 바 있다[13-14]. 

BERT와 GPT-3를 잇는 새로운 대형 언어 모델 중 하나인 “변환기(Transformer)” 모델의 경우, “신경망 아키텍처 탐색(Neural Architecture Search)”을 이용해 심층 신경망 구조의 최적화를 학습(training)과 같이 진행하면 한 번의 학습(training)을 수행하는데 약 3백만 달러, 한화로 약 36억 원 정도가 필요하다고 추정되었다[13-14].

이와 같이 최근 딥러닝 기술의 대표적인 응용 분야로 주목받고 있는 챗봇, 자연어 이해, 대화 인터페이스에 쓰이는 BERT, GPT-3, “변환기(Transformer)” 모델을 한번 학습시키는데 수십 억 원의 비용이 들어간다면 일반 기업 입장에서 이런 기술을 직접 학습 시켜 활용하는 것은 엄두도 내기 힘든 일임은 분명하다. 이렇게 가장 각광받는 인공지능 기술인 딥러닝을 쓸 때 이렇게 많은 비용이 든다면, 대부분의 기업은 인공지능을 활용하는 것이 큰 부담이 될 수밖에 없다.

결국 이런 비용을 부담할 수 있거나, 이런 비용을 상쇄할 만큼 이미 데이터센터와 인공지능 기술 개발 및 서비스용 고성능 컴퓨팅 인프라를 잘 갖추고 인공지능 소프트웨어 전문가들을 다수 보유한 구글, 페이스북과 같은 회사가 아니면 인공지능을 활용한 서비스나 제품을 개발하기는 쉽지 않을 것이다.

이렇게 인공지능 기술을 사업화하는데 들어가는 비용과 에너지 문제는 인공지능 기술의 사유화(privatization) 문제를 심화시키고 있다. 결국 인공지능 기술을 서비스로 제공할 수 있는 구글, 페이스북, 아마존, 애플과 같은 소수의 기업에 의해 인공지능 기술이 독점되고, 다른 대부분의 기업은 이들 기업의 서비스를 이용할 수밖에 없어 이들 기업에 대한 의존성과 인공지능 기반 서비스 및 상품의 비용이 증가할 수밖에 없게 된다.

이런 인공지능 모델의 학습과 활용에 들어가는 하드웨어 및 연산 비용을 줄이기 위해 새로운 아키텍처의 하드웨어 기술이 등장하고 있다. 구글의 TPU는 이미 2016년도 “알파고(AlphaGo)”에 사용되면서 유명해졌고, 지난 마흔 네 번째 글에서 소개한 그래프코어(Graphcore)사의 IPU(Intelligence Processing Unit) 프로세서, 세리브라즈 시스템즈(Cerebras Systems, Inc.)의 웨이퍼 스케일 엔진(Wafer-Scale Engine)과 같은 새로운 인공지능 전용 프로세서 기술이 등장하기도 했다[15].

딥러닝 기반 인공지능 기술의 발전에 따라 나타나는 비용 증가와 에너지 소모의 문제를 이들 새로운 아키텍처의 인공지능 전용 프로세서 반도체 기술이 어느 정도 해결할 수 있을 것으로 보인다. 

한편으로는, 오히려 딥러닝 기반 인공지능 기술의 활용이 늘어나면서 생기는 계산 비용 증가와 에너지 소모 문제의 등장이 IPU와 웨이퍼 스케일 엔진(Wafer-Scale Engine), 양자 컴퓨터(quantum computer), 신경모방 프로세서(Neuromorphic processor)와 같은 새로운 하드웨어 기술의 발전을 촉진시키고 있다. 이들 제품은 아직 GPU에 비해서는 극히 소수의 기업과 연구기관이 활용하고 있어 스타트업과 일반 기업이 활용할 만한 정도로 확산되기까지는 다소 시간이 걸릴 것으로 보인다.

지금까지 살펴본 것과 같이, 인공지능 기술을 활용하는데 필요한 컴퓨팅 자원 비용, 에너지 비용, 인건비 등의 비용 증가가 일반 기업들이 인공지능 기술을 활용하는 것을 부담스럽게 하여 인공지능 기술에 대한 관심이 점점 식어가고 있다는 분석이다. 

그렇지만, 인공지능 기술 활용에 따른 컴퓨팅 자원, 에너지 비용을 획기적으로 줄이고 기업의 인공지능 기술 활용을 돕는 새로운 기술이 출현하고 있고, 이를 이용한 새로운 사업 기회도 등장하고 있기도 하다.

비록 인공지능 기술의 컴퓨팅 비용, 에너지 비용의 부담 때문에 당분간 기업들이 인공지능 기술을 적극적으로 활용하는 것을 꺼리겠지만, 이런 문제가 새로운 스타트업 비즈니스의 기회가 되어 새로운 인공지능 하드웨어와 클라우드 컴퓨팅 기술로 이어지는 것이 또 현실이기도 하다. 이런 새로운 기술들이 일반 기업들의 인공지능 기술 활용의 불씨를 다시 피울 수 있을지는 좀 더 두고 봐야 할 것 같다.

해석가능성, 윤리적, 사회적 문제 해결을 위한 기술적 해결책의 부족
다섯째로, 의료 및 법률 AI와 같이, 인공지능의 판단이 줄 수 있는 윤리적, 사회적인 문제를 해결하기 위해 필요한 기술적인 뒷받침이 아직 많이 부족하다는 것이다. 이런 문제가 일어나는 것은 현재 우리가 가지고 있는 인공지능 기술이 완성된 기술이 아닌 인간 수준의 지능을 가진 기계를 만들려는 꿈으로 나아가는 과정에 있는 과도기적인 인공지능 기술이기 때문이다.

현재 인공지능 전문가들이 가장 걱정하고 있는 문제들은 지난 마흔 세 번째 글에서 소개한 것과 같이 인공지능이 인간과 같은 수준의 지능을 조만간 가지게 될 상황에서 생기는 문제들이 아니다. 오히려, 우리 두뇌와 지능, 인지 과정에 대한 불완전한 지식을 바탕으로 만들어진 불완전하고 미성숙한 인공지능 기술이 인류에게 끼칠 수 있는 해악이다. 

이런 해악의 대표적인 것으로 꼽히는 것이, 인간과 같은 도덕 관념과 인간에 대한 이해가 부족한 “살인 기계(killing machine)”가 벌일 수 있는 무차별적인 인명 살상과 인공지능 기술의 근본적인 미성숙성 때문에 인공지능에 판단을 일임한 사회 인프라나 서비스에서 일부 사람들이 적절하지 못하게 소외되고 차별받을 수 있는 상황이다.

위에서 언급한 두 가지 문제 모두 우리 인간의 두뇌, 인지 과정, 도덕 관념, 그리고 우리 인간 자신의 마음에 대한 부족한 이해와 지식으로 생기는 문제와 함께, 이렇게 우리 자신에 대해 잘 모르는 상태에서 만들어진 인공지능 기술의 불완전성이 일으키는 문제들이다. 

이렇게 인공지능 기술이 가지는 근본적인 불완전성과 한계를 극복하기 위해서는 우리가 우리 인간의 마음과 인지 능력에 대한 이해와 지식도 넓혀가야 하지만, 우리가 만드는 인공지능 기술을 우리가 온전하게 이해하고 활용할 수 있도록 만드는 것도 중요하다.

위와 같이 인공지능이 왜 특정한 판단과 결론에 이르게 되는지 해석하고 도와줄 수 있는 기술이 바로 “해석가능한 인공지능(Explainable AI; 이하 XAI)” 기술이라고 지난 스무 번째 글에서 자세히 소개한 바 있다. 

이 XAI 기술은 최근 유럽의 GDPR 법안이 실제 효력을 가지게 되면서 구글, 페이스북, 아마존, 알리바바와 같이 유럽을 포함한 전 세계 지역에 데이터 센터와 데이터를 보유하고, 이를 바탕으로 인공지능 기술을 이용해 전자상거래와 서비스를 자동화, 개인화하는 기업들을 중심으로 초유의 이슈로 떠오르게 되었다.

XAI 기술과 관련해서 가장 큰 문제는, 현재 가장 많이 쓰이는 딥러닝, 즉 심층 신경망 모델의 경우 XAI 기술과 방법론을 개발하기 가장 어렵고 힘든 기술이라는 것이다. 기계 학습 모델 중에서 가장 분명하고 논리적으로 투명한 베이지안 모델(Bayesian model)이 XAI 기술을 개발하기가 가장 쉽고 용이한 모델이며, 그다음으로 생성 모델(Generative model)이 XAI 방법론을 개발하고 적용하기가 상대적으로 용이한 것으로 알려져 있다. 

하지만, 현재 대부분의 딥러닝의 경우, 특히 요즘 대형화되면서 극도로 복잡해지고 있는 BERT와 GPT-3와 같은 심층신경망 모델의 경우, 파라미터의 수가 매우 많고 각 신경망 층별로 배우는 것이 뭔지 해석하는 것이 신경망 층이 깊어질수록 거의 불가능해지기 때문에 XAI 기술을 만들고 적용하기가 쉽지 않다.

이런 이유 때문에 심층 신경망의 학습 과정에서 “해석가능성(Interpretability)”을 높일 수 있도록 하기 위해 최근 “심층 베이지안 신경망 모델(Deep Bayesian Network Model)”, “심층 생성 모델(Deep Generative Model)”과 같은 기존의 심층 신경망 모델을 베이지안 모델(Bayesian model)이나 생성 모델(Generative model)의 관점에서 새롭게 해석하려는 시도가 있었으나, 이들 시도가 심층 신경망 모델의 직접적인 해석가능성으로 연결되는 근본적인 방법론과 이론은 아직까지 개발되지 못한 상황이다.

이렇게 우리가 사용하는 딥러닝 모델이 흉내 내려고 하는 우리 두뇌와 인지 과정에 대한 이해가 부족한 것은 말할 것도 없고, 우리 두뇌를 흉내 내려고 만든 딥러닝을 비롯한 기계 학습 모델이 무엇을 배우고 왜 특정한 결론을 내는지 모든 측면에서 완전하게 이해하지 못하는 상황이기 때문에, 이들 인공지능 기술을 사용해 법률적, 사회적, 윤리적인 문제를 일으키지 않는 지능형 서비스를 상용화하는 것이 현재로서는 쉽지 않아 보인다.

이런 이유로, 앞서 소개했던 의료 인공지능 기술에서의 활용가능한 데이터 문제를 제기한 안과의사 피어스 키언 박사가 의료 인공지능이 빠른 시간내에 상용화되기 어려운 이유 중의 하나로 이 인공지능 기술의 해석가능성 문제를 꼽았다. 

법률적인 책임과 윤리적인 문제에서 복잡한 이슈를 가진 또 하나의 대표적인 인공지능 응용 분야인 자율주행 자동차의 경우에도, 사고의 책임 소재를 가리는 법률적인 문제와, 자율주행 차의 사고 보상에 관한 민감한 이슈를 다룰 수밖에 없는 보험회사와 자율주행 자동차 제조사의 이해 관계가 맞물려 있어, 인공지능 기술의 해석가능성 문제는 앞으로 이런 법률적, 사회적, 윤리적인 문제 해결을 위한 중요한 기술적인 기반으로 더욱더 중요해질 전망이다.

현재 상황에서는 우리가 가진 인공지능 기술이 왜 특정한 판단과 결론을 내리는지 엄밀하게 이해할 기술과 방법론이 부족하여, 이런 기술적인 바탕이 견고하게 갖추어지지 않은 상태에서 만들어진 자율주행 자동차나 의료 영상 진단 기술과 같은 인공지능 기술들이 기업에 심각한 손실을 줄 수 있는 잠재적인 위험을 가지고 있다. 

이런 잠재적인 기술적 위험과 이런 위험을 감수하면서 인공지능 기술에 투자하도록 할 만한 근본적인 기술 혁신이 아직 부족하다는 생각이 확산되면서 인공지능 기술에 대한 매력과 관심이 주춤하고 있다.

성큼 다가선 인공지능 기술의 가을 – 인공지능 기술의 봄은 언제 오게 될까?
앞서 소개한 다섯 가지 이유 때문에 인공지능 기술에 대한 기대가 다소 수그러드는 인공지능 기술의 가을이 다시 오고 있다는 것이 지난 6월 13일 자 “이코노미스트(The Economist)”지의 “계간 기술(Technology Quarterly)” 특집 기사의 요점이다. 

다행히, 현재 딥러닝을 비롯한 인공지능 기술들은 실용적인 수준으로 많이 발전하여 사회 곳곳에 파고들면서 확산되고 있어, 지난 1970년대 중반부터 1980년대 초반, 1980년대 후반부터 1990년대 중반 두 차례 겪었던 혹독한 “인공지능의 겨울(AI’s Winter)”은 다시 오지 않을 것으로 전망하였다. 그렇기는 하지만, 현재 시장의 지나친 기대감과 인공지능 기술에 대한 무지로 온 시장의 거품은 조만간 꺼지면서 재조정 과정이 일어날 것으로 예상된다.

우리가 이번 “이코노미스트(The Economist)”지의 특집 기사에서 인공지능과 사이버 물리 시스템, 빅데이터의 미래에 관해 얻을 수 있는 교훈은 무엇일까? 필자는 다음과 같이 정리해보고자 한다.

첫 번째로, 필자가 지난 네 편의 글에서 반복하면서 강조하고 있는 것이지만, 인공지능을 가진 기계에게 우리가 기대하고 있는 인간 수준의 자율성과 고급 인지 기능, 고등 정신 과정을 갖춘 기계와 지능형 서비스가 나오기까지는 아직도 많은 기술의 발전이 이루어져야 한다. 현재 우리가 가지고 있는 인공지능 기술은 특정한 작업에 전문화되어 사람의 저수준 인지 기능을 흉내 내어 작업을 자동화하는 수준의 인공지능 기술이다.

위와 같은 현실에서, 인공지능이 일부 단순 노동에 대해서는 사람들의 일자리를 대체할 수 있지만, 인공지능 기술을 산업별, 사업별로 적용하면서 기존 기업의 사업들을 자동화, 효율화하는 일에 많은 수의 인공지능 엔지니어와 인력들이 필요할 것으로 예상된다. 

이 때문에, 또 다른 종류의 일자리 창출과 경제 성장의 기회가 올 수 있을 것으로 예상된다. 다만, 이 인공지능 기술의 확산에 따른 경제 성장의 기회에서 소외되는 사람들이 분명히 생겨날 수 있기 때문에, 이렇게 소외되는 사람들이 없도록 교육제도와 경제 정책을 선제적으로 고민하고 대응할 필요가 있다.

두 번째로, 인공지능 기술이 어떤 양상으로 발전할지 예측하기는 어렵지만, 앞서 설명했듯이 현재 인공지능 기술이 가지고 있는 문제를 해결하기 위한 기술이 중심이 되어 새로운 비즈니스 기회가 창출되리라는 것은 분명하다. 

이런 문제의 첫 번째로, 인공지능 기술을 활용할 때 필요한 컴퓨팅 자원을 더 효과적으로 공급할 수 있으면서 에너지 소모를 줄일 수 있는 새로운 아키텍처의 전용 반도체 프로세서, 컴퓨팅 하드웨어, 컴퓨터가 인공지능을 이용한 지능형 서비스와 상품을 위해 등장하여 사업 기회를 넓히리라는 것이다. 

여기에 해당되는 기술의 예로 그래프코어(Graphcore)사의 IPU(Intelligence Processing Unit) 프로세서, 세리브라즈 시스템즈(Cerebras Systems, Inc.)의 웨이퍼 스케일 엔진(Wafer-Scale Engine)을 지난 마흔 다섯째 글에서 소개하였으며, 앞으로 양자 컴퓨터와 신경모방 프로세서(Neuromorphic processor)에 대해서 기대감이 커지고 있다. 

두 번째로, 최근 더 적은 양의 데이터를 이용해 기존 모델의 성능을 낼 수 있는 딥러닝 모델에 대한 연구가 많은 관심을 받고 있다. 딥러닝이 다른 통계적 기계 학습 모델보다 더 많은 데이터와 계산량이 필요한 단점을 보완하기 위한 기술들을 중심으로 새로운 딥러닝 기반의 지능형 서비스와 상품이 나타날 것이고, 이런 기술들이 다시 딥러닝 기반 인공지능 기술의 발전을 점진적으로 견인할 것으로 예상된다.

세 번째로, 점차 발전될 딥러닝과 기계 학습 기법을 사용해, 기계 학습 모델의 훈련에 필요한 데이터의 준비와 가공 과정을 자동화하는 기술이 발전하면서 인공지능 기술 그 자체의 발전과 함께 인공지능 모델의 학습과 개발을 위한 데이터 수집, 가공 자동화를 위한 서비스와 제품 시장이 또 하나의 중요한 시장으로 성장할 것으로 기대된다. 

이렇게 인공지능 모델의 학습과 개발을 위한 데이터 가공 자동화 기술과 이에 관련된 서비스, 솔루션 시장은 빅데이터 기술의 발전도 자극하여, 인공지능 기술과 빅데이터 기술이 서로 선순환을 이루면서 발전하게 하는 중요한 계기가 될 것으로 보인다.

네 번째로, 딥러닝의 아키텍처를 정하는 데 쓸 수 있는 디자인 원리가 많지 않아 아직까지는 시행착오를 통해 최적화할 수밖에 없는 문제를 해결할 수 있는 신경망 아키텍처 탐색(neural architecture search) 방법, 인과성(causality)와 인지 기능의 합성성(compositionality), 고차원 표상(higher-level representation)을 배울 수 있도록 하는 표상 학습(representational learning)과 같은 뇌과학과 인지 과학의 성과를 이용한 새로운 인공지능 기술의 출현이 인공지능 기술 시장의 또 다른 성장 계기를 마련해줄 것으로 예상된다.

위와 같은 네 가지 인공지능 기술 발전 양상이 예전과 같은 혹독한 인공지능 기술의 겨울이 오도록 하지 않고 인공지능 기술과 시장이 점진적으로 발전하면서 기업과 사회의 디지털 전환(Digital Transformation)을 가속하게 될 것으로 전망된다.

마지막 다섯 번째 교훈은, 새로운 기계 학습 모델과 방법론에 대한 해석가능한 인공지능 기술(Explainable AI; XAI)이 발전하면서, 인공지능의 오판이나, 인간적인 측면이 고려되지 않은 획일적인 판단에 따른 피해를 예방하고, 인공지능의 판단에 대한 이해 관계 충돌이나 법적인 분쟁을 해결해주는 전문적인 기술과 서비스가 새로운 비즈니스로 등장하고 발전하게 되리라는 것이다.

앞서 스무 번째 글에서 소개한 바와 같이, 최근 유럽의 GDPR 법안의 효력이 발생하면서 구글이나 페이스북과 같은 다국적 인터넷 서비스 기업들에게 해석가능한 인공지능 기술이 점점 더 중요해지고 있다. 

이뿐 아니라, 고객의 개인 정보와 함께 인공지능 기술을 통해 자동화된 프로세스를 운영하는 기업이나, 인공지능을 통해 자동화된 프로세스가 법률적인 분쟁으로 이어질 수 있는 B2B 거래에서 해석가능한 인공지능 기술을 개발하고 인공지능의 판단 근거를 해석해주는 서비스도 그 법률적, 사회적인 민감성 때문에 중요한 비즈니스 영역으로 부상할 것으로 예상된다.

앞서 마흔 세 번째 글에서 언급한 것과 같이, 인공지능 기술의 미래를 구체적으로 그려 보기는 어렵다. 그렇지만 현재 일어나고 있는 인공지능 기술의 발전 양상과 현재 인공지능 기술이 가지고 있는 문제들을 생각해볼 때, 앞서 소개한 세 가지의 방향으로 인공지능 기술과 관련 시장이 발전하리라고 어렴풋하게 예상해볼 수 있다.

이번 6월 13일 자 “이코노미스트(The Economist)”지의 “계간 기술(Technology Quarterly)” 특집 기사에서 결론을 내린 것처럼 “인공지능 기술의 가을이 오고 있다(AI’s autumn is coming)”. 그렇지만, 지금 다가오고 있는 인공지능 기술의 가을은 우리가 인공지능 기술에 대해 가지고 있던 무지와 오해 때문에 생긴 과도한 기대로 생긴 것이다. 

인공지능 기술 그 자체는 분명히 진보하였고, 과거 인공지능 기술의 두 차례 겨울이 왔던 때보다 훨씬 더 실용적인 기술이 되어 우리 삶의 곳곳에서 편리함과 새로운 사업의 기회를 제공하고 있다. 인공지능 기술의 가을이 오고 곧 겨울이 오겠지만, 예전과 같이 혹독하게 추운 겨울이 아니라 예전보다 온화하고 봄을 기대하게 하는 성장의 겨울이 될 것 같다. 

이 성장의 겨울 시간 동안 많은 스타트업 창업자들이 새로운 도전과 시도를 통해서 인공지능 기술의 실용화 가능성을 더 높일 것이다. 앞서 얘기한 네 가지 새로운 인공지능 기술이 이를 이용한 빅데이터, 사이버 물리 시스템 기반 지능형 서비스 시장에 활력을 불어넣는 인공지능의 봄이 다시 올 것이다. 

다시 올 인공지능의 봄은 자율 에이전트와 사이버 물리 시스템의 발전으로 예전보다 훨씬 더 풍성하고 다양한 사업의 기회가 넘칠 것으로 예상된다. 인공지능 기술의 겨울을 두려워할 것이 아니라, 현재 가진 인공지능 기술의 한계를 잘 알고 사용하면서 앞으로 올 인공지능 기술의 봄을 잘 준비하고 역량을 쌓아간다면 새로 오는 인공지능 기술의 봄에서는 큰 성장의 결실을 맛볼 수 있을 것이다.

[참고문헌]
[1] 김진철, “LHC에서 배우는 빅데이터와 machine learning 활용 방안”, 2016년 9월 28일, A CIO Conversation for Technology Leadership – Breakfast Roundtable 발표 자료
[2] “Reality Check - An understanding of AI’s limitations is starting to sink in”, The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/an-understanding-of-ais-limitations-is-starting-to-sink-in)
[3] “Algorithms and armies - Businesses are finding AI hard to adopt”, The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/businesses-are-finding-ai-hard-to-adopt)
[4] “Not so big - For AI, data are harder to come by than you think”, The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/for-ai-data-are-harder-to-come-by-than-you-think
[5] “An AI for an eye - The potential and the pitfalls of medical AI”, The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/the-potential-and-the-pitfalls-of-medical-ai
[6] “Machine, learning - The cost of training machines is becoming a problem”, The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/the-cost-of-training-machines-is-becoming-a-problem
[7] “Road block - Driverless cars show the limits of today’s AI”, The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/driverless-cars-show-the-limits-of-todays-ai
[8] “Autumn is coming - Humans will add to AI’s limitations”, The Economist, The Economist Group Limited, Jun 11, 2020. (https://www.economist.com/technology-quarterly/2020/06/11/humans-will-add-to-ais-limitations
[9] 정지훈, "[정지훈 해제] "굿모닝 AI"…곧 가을이 온다는데 딥러닝은 잘되고 있겠죠?”, 피렌체의 식탁, 2020년 7월 9일. (https://firenzedt.com/?p=8005)
[10] Andrew J. Hawkins, “Cruise postpones plan to launch driverless taxi service in 2019 - The GM subsidiary had planned to debut a self-driving ride-hailing service in San Francisco by the end of 2019”, The Verge, July 24, 2019. (https://www.theverge.com/2019/7/24/20707242/cruise-gm-self-driving-taxi-launch-delay-2019
[11] Dario Amodei, Danny Hernandez, “AI and Compute”, OpenAI Blog, May 16, 2018. (https://openai.com/blog/ai-and-compute/)
[12] Girish Sastry, Jack Clark, Greg Brockman, Ilya Sutskever, “Addendum to ‘AI and Compute’: Compute used in older headline results”, OpenAI Blog, November 7, 2019. (https://openai.com/blog/ai-and-compute/)
[13] Karen Hao, “Training a single AI model can emit as much carbon as five cars in their lifetimes - Deep learning has a terrible carbon footprint”, MIT Technology Review, June 6, 2019. (https://www.technologyreview.com/2019/06/06/239031/training-a-single-ai-model-can-emit-as-much-carbon-as-five-cars-in-their-lifetimes/)
[14] Emma Strubell, Ananya Ganesh, Andrew McCallum, “Energy and Policy Considerations for Deep Learning in NLP”, arXiv:1906.02243 [cs.CL], 2019. (https://arxiv.org/abs/1906.02243)
[15] 김진철, “[김진철의 How-to-Big Data] 빅데이터의 미래 (10)”, CIO Korea, 2020년 8월 26일. (http://www.ciokorea.com/column/162080)
[16] 김진철, “[김진철의 How-to-Big Data] 빅데이터와 인공지능 (3)”, CIO Korea, 2018년 8월 27일. (http://www.ciokorea.com/column/39367)
[17] 김진철, “[김진철의 How-to-Big Data] 빅데이터의 미래 (9)”, CIO Korea, 2020년 7월 27일. (http://www.ciokorea.com/column/158812)



* 김진철 박사는 1997년 한국과학기술원에서 물리학 학사, 1999년 포항공과대학교에서 인공신경망에 대한 연구로 석사 학위를, 2005년 레이저-플라즈마 가속기에 대한 연구로 박사 학위를 받았다. 2005년부터 유럽입자물리학연구소(CERN)의 LHC 데이터 그리드 구축, 개발에 참여, LHC 빅데이터 인프라를 위한 미들웨어 및 데이터 분석 기술을 연구하였다. 이후 한국과학기술정보연구원(KISTI), 포항공과대학교, 삼성SDS를 거쳐 2013년부터 SK텔레콤에서 클라우드 컴퓨팅과 인공지능 기술을 연구하고 있다. 빅데이터와 인공지능 기술의 기업 활용 방안에 대해 최근 다수의 초청 강연 및 컨설팅을 수행하였다. ciokr@idg.co.kr
 
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.