2020.07.27

김진철의 How-to-Big Data | 빅데이터의 미래 (9)

김진철 | CIO KR
지난 서른다섯 번째 글부터는 빅데이터 비즈니스와 기술의 미래를 현재 기술들의 동향과 전망을 가지고 같이 엿보고 있다. 빅데이터 비즈니스와 기술의 미래로서, 사이버 물리 시스템(CPS)으로 발전해가는 미래 정보통신 기술과 지능형 서비스의 미래를 소개하였고, 앞으로의 빅데이터 비즈니스와 기술의 발전은 이 사이버 물리 시스템(CPS)으로 구현되는 다양한 지능형 서비스들을 중심으로 이루어질 것이라고 설명하였다. 이와 함께, 이 사이버 물리 시스템(CPS)의 기반이 되는 다양한 기술들의 현재와 미래, 이들의 사이버 물리 시스템과의 관련성에 대해서 살펴보고 있다. 지금까지 클라우드 컴퓨팅 기술, 5G 이동통신과 모바일 에지 컴퓨팅으로 대표되는 미래 통신 기술, 사물인터넷(IoT)과 에지 컴퓨팅 기술들이 어떻게 사이버 물리 시스템(CPS) 기반의 지능형 서비스와 관련이 있는지 같이 살펴보았다.
 
ⓒGetty Images

인공지능 기술에 대한 우리들의 오해 (1) – 지나친 낙관론과 과대평가
이번 글부터 두, 세 편의 글에서는 사이버 물리 시스템(CPS) 기반 지능형 서비스의 가장 핵심이 될 것으로 보이는 인공지능 기술의 현재와 미래, 전망에 대해서 같이 살펴보고자 한다. 우리나라 대기업들이 앞다투어 인공지능 기술에 대한 대규모 투자 계획을 발표하고 있고, 우리나라 정부를 포함한 세계 각국 정부들도 인공지능 기술 경쟁에서 앞서 나가기 위해 다양한 계획들을 발표하고 있는 현 상황에서 과연 이런 인공지능 기술에 대한 열기가 기대하는 만큼의 물질적인 번영과 부를 가져다줄 수 있을지, 그렇다면 어느 정도로 광범위하고 다양하게 우리 사회에 영향을 끼칠지 같이 생각해보는 시간을 가지려고 한다.

2016년 1월 “알파고(AlphaGo)”가 이세돌 9단을 이긴 사건을 계기로 최근 5년간은 IT 기술 매체의 많은 지면과 영역을 인공지능 관련 기술들에 관한 내용이 채워왔다. “알파고”를 만든 구글의 “딥마인드(DeepMind)”는 여전히 수익을 내지 못하고 2019년 8월 기준으로 1조 5천억 원이 넘는 큰 부채를 안고 있는 회사임에도 불구하고 기업 가치가 엄청나게 상승했으며, “딥마인드”의 기업 가치가 앞으로도 높게 평가될 것임에 대해서는 대부분의 전문가가 부정하지 않는 것 같다. 최근 벤처 캐피털리스트들의 투자 기조가 코로나바이러스로 인한 경기 위축과 “우버(Uber)”나 “위워크(WeWork)”와 같은 주요 유니콘 기업들의 실적 부진, 도덕적 해이(Moral Hazard)로 미래 성장성보다는 현실적인 수익 전망을 중심으로 보수적으로 돌아섰다고는 하지만, 인공지능 기술에 대한 기대는 쉽게 수그러들지 않는 것 같다.

지금까지는 사이버 물리 시스템(CPS) 관련 기술들의 미래 전망에 대해서 긍정적인 측면에서 많이 다루어 왔고, 이런 긍정적인 측면을 뒷받침할 만한 근거들도 많이 소개하였다. 인공지능 기술의 현재와 미래에 대해서는 조금 다른 방식으로 접근해보려고 한다. 먼저, 현재 우리들이 가지고 있는 인공지능 기술의 기대감과 전망이 정말 현실성이 있고 적절한 것인지, 우리가 지나치게 긍정적으로 생각하고 있는 것은 아닌지, 인공지능 기술에 대해서 우리가 가지고 있는 오해와 편견에 대해 살펴보려고 한다. 인공지능 기술의 미래 가능성에 대해서 조금이나마 정확하게 살펴보기 위해서는 이런 오해와 편견을 걷어내는 것이 중요하다고 필자는 생각한다.

IT 기술 매체에서 다양한 IT 기술들의 전망에 대해서 긍정적인 측면을 부각하고 보여주는 것은 IT 기술 시장의 새로운 비즈니스가 실현될 수 있도록 투자 자금이 흘러들 수 있도록 하는 긍정적인 측면도 있지만, 새로운 기술이 수익성 있고 지속가능한 비즈니스로 실현되기 위해 필요한 다양한 측면을 있는 그대로 보지 못하게 하고 지나치게 기술적인 측면만 보게 하는 부작용도 있다. IT 기술 매체에서 다뤄지고 있는 인공지능 기술은 이 양극단이 다른 어떤 IT 기술보다도 극단적으로 나타나고 있어서 인공지능 기술을 이용한 비즈니스를 기획, 설계하는 사람들이 주의해서 이들 정보를 보는 것이 좋다.

첫 번째로, 인공지능 기술에 대한 가장 큰 오해는 현재의 인공지능 기술이 사람과 같은 수준의 자율성과 지능을 가진 수준을 가진 기술로 곧 발전할 수 있다고 하는 가정에 근거하여 나오는 많은 추측과 지나치게 긍정적인 전망들이다.

인공지능 기술에 대한 많은 오해와 과장된 기대감을 불러일으키는 가장 큰 원인은 바로 “인공지능(Artificial Intelligence)”라는 말과 관련이 있다. 인공지능 분야는 최근 IT 매체에서 주목받는 어느 기술 영역보다도 가장 광범위하고 다양한 기술 영역을 다루는 분야임에도, 무엇이든 할 수 있는 요술 방망이 같은 단일 기술의 인상을 준다. 기술의 성숙도 측면에서도 다른 기술들에 비해 많이 부족하지만 마치 지금 당장이라도 쓰면 금맥을 발견할 수 있게 해주는 기술인 것처럼 과장되는 측면이 없지 않다.

인간의 “지능(Intelligence)”이라는 말 안에 포함된 심리학적 현상들이나 개념은 다양하고 범위가 넓다. 이런 “지능”을 인공적으로 만들 수 있게 하는 기술이라는 의미를 담고 있는 “인공지능”라는 말 한 단어로 “인공지능” 기술을 써서 ~한 제품을 만들었다고 얘기하면, 어떤 상품에 벌써 사람과 같은 “지능”이 들어간 것 같은 느낌이 든다. 이런 “느낌”이 요즘 “4차산업혁명”이라는 말과 “인공지능”이라는 말을 접했을 때 대부분의 사람들과 기사를 쓰는 언론인들이 느끼는 느낌이다. “인공지능”이라는 말은 과학기술 용어가 어떻게 남용되고 있는지 가장 잘 보여주는 사례가 아닌가 한다.

문제는 이 “느낌”이 실제 “인공지능”을 전문적으로 연구하는 과학자, 공학자들과 관련된 분야에서 일하는 전문가들이 쓰는 맥락과 너무 다르다는 것이다. 물론, “인공지능”이라는 학문 분야의 궁극적인 목적은 사람과 같이 생각하고 행동하는 컴퓨터와 기계를 만드는 것이다. 그렇지만, 아직 우리는 “인공지능”이라는 학문을 통해 그런 목적을 달성하지 못했다. 심지어는 뭘 만들어야 우리 자신과 같은 지능을 가진 컴퓨터나 기계를 만들 수 있는지도 잘 모를 뿐만 아니라, 우리가 가진 “지능”의 실체에 대해서도 아주 일부분만 이해하고 있을 뿐, 얼마나 이해하고 있는지도 잘 모르고 있다.

그뿐만 아니라, 우리가 만든 “인공지능” 시스템이 사람과 같은 수준의 지능을 가지고 있는지, 이를 어떻게 알 수 있는지 이에 대한 답도 완전하게 얻지 못했다. 물론 원론적인 수준에서는, 앨런 튜링에 의해 제안된 “튜링 테스트(Turing Test)”와 컴퓨터 과학자인 알론조 처치(Alonso Church)가 제안한 “중국인 방 테스트(Chinese Room Test)”와 같은 방법이 있지만, 매우 추상적이고 원론적인 수준의 테스트이다. 실제 컴퓨터 시스템에 이 “튜링 테스트”와 “중국인 방 테스트”를 적용하기 위해서 아직 기술적으로 해결되지 않은 부분이 많다.

또한 좁게는 사람의 “지능(Intelligence)”, 좀 더 포괄적으로는 인간의 “마음(Mind)”을 이해하기 위해 연구하는 학문은 컴퓨터 과학만이 아니다. 인간의 “마음”을 이해하기 위해 연구하는 과학자, 공학자들은 수학, 물리학, 심리학, 뇌과학과 생물학, 철학, 인지과학, 컴퓨터 과학, 뇌공학 등 다양한 학분 분야에 걸쳐 있고, 예전에는 이렇게 다양한 학문 분야를 아울러 인간의 “마음”이 무엇인가에 대한 다양한 가설과 해답을 추구했지만, 요즘은 이들 학문 분야가 서로 협력하여 인간의 “마음”에 대한 퍼즐을 같이 맞추어 가는 상황이다.

우리가 소위 “인공지능” 기술에 대해서 현재 가져야 하는 기대감과 희망을 당분간은 대폭 낮춰야 하는 이유가 바로 여기에 있다. 우리가 만드는 인간의 “마음”의 실체가 무엇인지도 모르는데, 어떻게 만들 수 있단 말인가? 설사 튜링 테스트를 통과한 “인공지능”이 있다고 해도, 이런 “인공지능”이 계산을 통해 내린 결론과 행동을 우리가 과연 이해할 수 있을 것인가? 우리가 이해하지 못하는 대상이 사람과 같이 말하고 행동한다고 해서 사람과 같은 지능적 존재라고 단정할 수 있을 것인가?

“인공지능” 기술은 기술적으로도 아직 성숙되지 않았지만, “인공지능” 기술이 실용화되었을 때 우리가 이런 존재와 어떻게 어울려 살아갈 수 있을지, 이런 존재와 함께했을 때 나타날 수 있는 좋은 점과 부작용에 대해서도 많은 논란과 연구가 이어지는 중이다. “인공지능” 기술이 사람과 같은 수준의 기술로 발전했을 때에만 이런 문제가 부각되는 것이 아니라, 사실은 그 전에 사람과 같은 수준의 지능은 아니지만 특정한 영역의 작업에서 높은 지능을 가진 지능형 기계와 같은 불완전한 “인공지능” 기술이 활용되는 시기에 생겨나는 문제가 더 많고 복잡하다.

“인공지능”과 관련된 기술적, 철학적인 문제는 이 지면에서 다루기에는 너무 광범위하고 복잡해서 깊게 다루지는 않겠다. 다만, 필자가 여기서 독자분들에게 전달하고자 하는 것은 “인공지능”이란 말에 대한 오해를 접고 좀 더 실용적이고 현실적으로 이 기술을 어떻게 활용할 것인지 생각해야 한다는 것이다. “인공지능”이란 말을 앞세워서 새로운 비즈니스를 만들고 조직에서 승진하고 승승장구하고 싶은 분들이 많겠지만, “인공지능” 기술이 아직 성숙된 기술이 아니고, 아직도 연구를 통해 밝혀내고 이해해야 할 영역이 많은 불완전한 기술이라는 점을 이해해야 한다. 실제 실무에 적용해서 가치 있는 상품을 만들어낼 수 있을 정도로 “인공지능” 기술을 잘 활용하기 위해서는 활용하려는 특정한 “인공지능” 기술이 어떤 한계를 가지고 있고, 어떤 문제를 가장 잘 해결할 수 있는지 비판적인 지식과 통찰을 가지고 있어야 한다.

“인공지능”이라는 말 아래에는 다양한 영역의 문제를 해결하는 다양한 기술이 포함되어 있다. 인간의 “마음”이 보여주는 특성도 그만큼 다양하기 때문이다. 최근 인기를 끌고 있는 “기계 학습(Machine Learning)” 기술도 “인공지능(Artificial Intelligence)”이라는 말만큼이나 많은 오해와 편견을 불러일으키는 말 중의 하나다. 우리의 “마음”이 보여주는 중요한 특징인 “학습(Learning)”하는 능력은 우리의 “마음”이 가진 중요한 능력 중의 하나이다. 하지만, 학습하는 능력만 갖춘다고 해서 우리가 가진 “마음”을 똑같이 만들 수 있는 것일까? 그렇지 않다는 것이다.

“인공지능”과 심리학, 인지과학 분야에서 다양한 “기계 학습” 모델을 통해 컴퓨터는 쉽게 해결하지 못하지만 인간의 “마음”은 쉽게 해결하는 다양한 문제들을 모델링하고 이를 컴퓨터가 풀 수 있도록 하는 방법들을 밝혀내기는 했지만, 이런 모델들은 이런 각각의 문제에 대해서만 인간의 “마음”와 비슷하게 동작하는 것이지, 이런 “기계 학습” 모델 하나만 가지고 우리의 “마음”을 동일하게 만들 수 있는 것은 아니다. “학습”할 수 있는 능력은 우리의 “마음”이 가진 다양한 특성 중의 하나이지, 이 특성 하나만 가지고 우리의 “마음”이 완성되는 것은 아니라는 것을 이해할 필요가 있다.

이렇게 “인공지능”이 목표로 삼고 있는 우리의 “마음”을 컴퓨터가 우리와 같은 수준으로 흉내 내고 동작하기 위해서는 우리 “마음”의 다양한 특성들과 역량들이 컴퓨터 소프트웨어화되어 완전하게(holistically) 통합(integration)되고, 이렇게 통합된 인공지능이 “마음”의 통합된 전체와 같은 특성과 능력을 보일 수 있도록 하나의 전체, 완전체로서 동작할 때에야만 우리가 현재 생각하는 “인공지능(Artificial Intelligence)”이라는 말에 걸맞은 기대와 문제점을 드러내게 될 것이다. 

인공지능 기술에 대한 우리들의 오해 (2) – 인공지능 본연의 기술과 도구 기술의 혼동
두 번째로, 인공지능을 만드는 데 쓰는 도구가 되는 기술과 인공지능 기술을 혼동함으로써 오는 혼란과 오해이다. 인공지능을 만드는 데 쓰는 도구가 되는 기술을 잘 알고 쓴다고 해서 인공지능 기술을 잘 알고 만들 수 있는 것은 아님에도 불구하고, 최근 인공지능 기술을 대표하는 기술로 텐서플로우(TensorFlow)와 같은 소프트웨어 도구가 소개되는 것은 오해와 혼란의 여지가 있다.

현재 가장 인기 있는 인공지능 기술인 “딥러닝(Deep Learning)”은 사실 전문가들 입장에서는 일종의 범용 근사 계산기(universal approximator)에 가까운 기술이다. 보통 일반 매체에서 딥러닝을 이용한 인공지능 기술을 소개하는 경우 모델을 디자인하고 검증하는 수고에 대해서는 잘 언급하지 않고 데이터만 있으면 딥러닝 모델이 학습할 대상을 알아서 학습한다는 식으로 표현하는 경우가 많아서 딥러닝 기술이 만능인 것 같은 인상을 줄 때가 많다. 최근 인공지능 붐이 딥러닝에서 시작된 것을 생각하면 현재 일반 대중들, 심지어는 IT 분야에서 일하는 분들까지도 이렇게 왜곡되게 표현한 딥러닝 기술로 대표되는 인공지능 기술에 대한 보도나 기사들 때문에 데이터만 모아주면 딥러닝 모델이 알아서 원하는 작업을 해주는 것 같은 인상을 받는 경우가 많은 것 같다.

딥러닝 모델을 활용하는 기계 학습 엔지니어들의 입장에서는 딥러닝만큼 다루기 쉽지 않은 기계 학습 기술이 없다. 우선 보통 “통계적 학습 이론(statistical learning theory)”에 따른 기계 학습 모델들에 비해서 학습할 파라미터의 수가 훨씬 많기 때문에 더 많은 데이터가 필요할 뿐만 아니라, 확률 모델로 어느 정도 분명한 해석이 가능한 다른 기계 학습 모델들에 비해서 딥러닝 모델은 입력과 출력 노드 뉴런들의 값을 제외하고는 모델의 대부분을 구성하는 가중치 텐서(weight tensor)와 숨겨진 노드(hidden node)들이 뭘 나타내고 배우고 있는지 해석하기가 쉽지 않다.

딥러닝 모델을 우리가 원하는 대로 동작시키기 위해서는 입력 노드에 어떤 자질(feature)들로 데이터를 표현할지도 주의 깊게 설계해야 하는데, 이 과정이 보통 그렇게 쉽지 않은 경우가 많다. 컨볼루션 신경망(Convolution Neural Network; CNN)처럼 영상 데이터에 주로 쓰이는 딥러닝 모델은 그나마 조금 나은 편이지만, 자동화된 제어나 예측 분석 등의 특수한 응용 분야에 적용되는 딥러닝 모델은 입력 노드가 표현하는 “상태 공간(configuration space)”을 기계 학습 엔지니어가 설계하는 방식에 따라서 학습 성능과 모델의 정확도, 유용성이 천차만별로 달라지는 경우가 많다. 이런 이유로 사실 데이터만 있으면 알아서 배운다는 말이 무색할 정도로 딥러닝 모델을 만드는 작업은 많은 시행착오를 동반하는 경우가 많다.

그나마 요즘은 텐서플로우와 파이토치(PyTorch)와 같이 딥러닝 모델 개발을 쉽고 빠르게 해줄 수 있는 기계 학습 소프트웨어 프레임워크 기술이 크게 발전해서 딥러닝을 사용하는 기계 학습, 인공지능 기술 엔지니어와 연구자들의 이런 고충과 수고를 많이 덜어주고 있다. 그렇지만, 딥러닝 모델이 가진 근본적인 한계를 이런 기계 학습 소프트웨어 프레임워크 기술이 모두 해결해주는 것은 아니기 때문에 여전히 딥러닝 모델을 현장에서 적용하는 것은 말처럼 쉽지 않은 일이다. 사실 딥러닝 기술의 이런 한계 때문에 오히려 텐서플로우와 같은 소프트웨어 프레임워크 기술의 발전이 더욱 필요하기도 하고, 이런 이유로 텐서플로우와 같은 기술이 중요한 인공지능 개발을 위한 소프트웨어 기술로 각광받고 있기도 하다.

텐서플로우나 파이토치 자체는 인공지능 기술이 아니라는 것을 독자 여러분들께서는 다시 환기해둘 필요가 있다. 많은 IT 전문가들도 잘 아시겠지만, 텐서플로우와 파이토치는 딥러닝 같은 기계 학습 모델을 잘 만들 수 있도록 도와주는 소프트웨어 도구이다. 이런 기계 학습 모델을 쉽게 프로그래밍할 수 있도록 돕는 소프트웨어 도구를 이용해서 기계 학습 전문 소프트웨어 엔지니어들이 목적에 맞는 딥러닝 모델과 기계 학습 모델을 설계하고 테스트해서 실제 현장의 응용 분야에 쓰일 수 있도록 배치해야 비로소 우리가 체감하는 인공지능 기능을 가진 서비스나 제품으로 기능을 하는 것이다.

인공지능 기술과 이런 인공지능을 가능하게 하는 개발 도구는 분명히 구분해서 소개하고 다뤄져야 함에도 인공지능 기술을 만드는 것을 돕는 개발 도구가 인공지능 기술의 대표적인 기술인 것 같은 인상을 주게끔 많은 매체에서 소개하고 있어 혼란을 주고 있는 것 같다. 독자분들은 이 점을 분명히 구분해서 받아들여야 인공지능 기술에 대한 혼란을 줄일 수 있을 것이다.

이렇게 인공지능 기술과 인공지능을 만드는 데 쓰는 도구가 되는 기술을 인공지능 기술로 혼동함으로써 오는 혼란은 앞서 설명한 첫 번째 오해와 관련이 있다. 이 점과 관련해서 세 번째로 짚고 넘어가야 할 오해와 편견이 있다.

인공지능 기술에 대한 우리들의 오해 (3) – 특정 인공지능 요소, 도구 기술에 대한 지나친 맹신
세 번째로 우리가 생각해봐야 할 오해와 편견은, 소위 텐서플로우(TensorFlow)와 같은 인공지능 기술을 익히고 잘 활용하면 금방이라도 사람들이 실직할 수 있고 사회적으로 문제가 되는 자동화 기술이나, 곧 대박을 낼 수 있는 혁신적인 수준의 인공지능을 만들 수 있을 거라는 생각이다.

현재 인공지능 기술로 불리는 기술들을 써서 정말로 우리와 같은 지능을 가진 인공지능을 만들 수 있을지 없을지 아직 알 수 없고, 만들 수 있다고 해도 아주 일부분의 특정한 작업만 잘 할 수 있는 인공지능을 만들 수 있을 뿐이다. 우리 현재 인공지능 기술로 불리는 많은 기술들이 다른 과학, 공학 분야와 달리 아직 검증되지 않은 가설을 컴퓨터를 이용한 모델로 만들어 놓은 것에 불과한 것이 많고, 이런 모델로 만든 컴퓨터와 자율형 기계의 지능적인 행동이 정말로 우리가 보여주는 행동과 지능에 비교해서 같은 것인지 알 수 없는 경우가 대부분이다.

현재 알려진 인공지능 기술을 활용함에 있어서 세 번째 오해를 이해하는 것은 정말 중요하다. 그리고, 이 세 번째 오해는 앞의 첫 번째 오해와 두 번째 오해 때문에 결국 나타나는 현상이다.

진짜 인공지능을 만드는 것과 지금까지 연구된 인공지능 분야의 지식과 기술을 응용해서 산업현장과 비즈니스에 응용해서 자동화율을 높이고 프로세스의 효율과 스피드를 개선하는 일의 차이를 분명하게 구분하여 생각할 필요가 있다. 인공지능을 만들기 위해 우리가 직면한 도전과 한계에 대해서 인공지능 전문가뿐만 아니라 인공지능을 활용하는 보통의 IT 전문가들도 어느 정도 인식할 필요가 있다.

현재 우리가 인공지능 기술이라고 사용하고 있는 알고리즘이나 방법론들은 우리 인간의 마음(Mind)이 수행하는 작업을 흉내 내고 설명하기 위한 모델로부터 시작한 것들이라는 걸 우선 이해할 필요가 있다. 이 모델들 대부분이 인간의 마음과 두뇌가 수행하는 아주 특정한 측면을 설명하거나 이해하기 위해 만든 수학적인 모델들이고, 이 특정한 측면을 벗어난 특징이나 인지 영역으로 들어가면 이런 모델들이 쓸모없게 되거나 다른 모델과 상충하는 결과를 보여주는 것이 많다는 것을 생각해야 한다.

이런 점을 가장 잘 보여주는 인공지능 기술 중의 하나가 바로 요즘 인기를 끌고 있는 딥러닝이다. 딥러닝은 사실 인간 두뇌의 해부학적인 지식을 심리학의 행동 학습을 설명하는 이론과 결부시켜 만든 수학적 모델이다. 이런 측면을 고려하지 않고 딥러닝의 수학적, 이론적인 측면만을 공부한 컴퓨터 과학자, 또는 수리통계학자들은 딥러닝이 알고 보니 그냥 통계 이론에 불과하다고 생각한다.

딥러닝을 비롯한 기계 학습 알고리즘과 기술들을 개발하기 위해 사용하는 이론들은 통계학의 용어와 개념을 빌어 디자인되고 표현된 것이 많다. 이것을 “통계적 기계 학습 이론(statistical machine learning theory)”이라고 하는데, 기계 학습 이론을 심리학, 인지과학, 신경과학의 통합적인 맥락에서 배우지 않고 통계적 기계 학습 이론을 빌어 표현된 기계 학습 알고리즘만 배운 컴퓨터 과학자나 공학자, 소프트웨어 엔지니어들, 통계학자들은 기계 학습이 알고 보니 그냥 통계 이론에 불과하다고 느낄 수 있다.
 
이렇게 그저 통계 이론, 알고리즘의 하나 정도로 여겨지는 인공지능 기술의 본질에 대해서 잠시 생각해볼 수 있는 시간을 가지기 위해 짧게 딥러닝 기술의 역사를 살펴보도록 하자.

딥러닝의 시작은 “맥컬로크-피츠의 신경 세포 발화 모델(the McCulloch-Pits model)”이다. 신경 세포가 전기적인 발화(firing)를 하는 것을 여러 신경 세포로부터의 발화(firing)가, 신경 세포 간 연결 방식인 시냅스를 통해 연결되어 가중 합산(weight summation)되면서 특정한 문턱값(threshold)을 넘어서면 0,1의 전기적인 상태를 표현하는 디지털 신호와 같은 발화를 한다는 것이 맥컬로크-피츠의 신경 세포 발화 모델이다. 

이 맥컬로크-피츠의 신경 세포 발화 모델을 인공지능에 처음으로 응용한 것이 인공지능의 대부인 마빈 민스키(Marvin Minsky) 교수와 맞대결을 펼쳐 유명해진 프랭크 로젠블라트(Frank Rosenblatt) 박사이다. 프랭크 로젠블라트 박사가 제안한 “퍼셉트론(perceptron)”은 현대 딥러닝 및 신경망(neural network) 이론의 기초가 되는 중요한 수학적인 모델이다. 이 “퍼셉트론”은 인간 두뇌의 심리학적, 신경 생리학적 지식을 기초로 만든 수학적인 모델이 우리 두뇌의 정보 처리 방식을 이해하는 데 중요하다는 것을 보여준 사건으로, 뇌과학 및 신경과학, 심리학, 인지과학의 연구 성과를 인공지능 연구에 활용하게 하는 계기가 된다.

“맥컬로크-피츠의 신경 세포 발화 모델”과 함께 딥러닝 이론의 기반이 된 또 하나의 심리학 학습 이론은 캐나다의 심리학자인 도날드 올딩 헵(Donald Olding Hebb)이 우리 두뇌의 학습 원리로 제안한 “헵 학습 이론(Hebbian Learning Theory)”이다. 1949년 도날드 올딩 헵(Donald Olding Hebb)은 심리학자로서 명성을 높이게 된 저서인 “행동의 조직(The Organization of Behavior)”라는 책에서, 신경생리학적인 사실을 바탕으로 우리의 두뇌와 신경 조직은 자주 받아들이고 사용하는 신경 네트워크의 시냅스는 그 연결이 장기적으로 강화되어 더 빠르고 정확하게 자극에 반응할 수 있도록 신경계의 시냅스가 변화한다는 “헵 학습 이론”을 제안하게 된다.

이 “헵 학습 이론”에서 표현하고자 하는 시냅스(synapse) 연결의 강도는 신경망, 즉 딥러닝 모델에서 가중치 행렬(weight matrix)의 값으로 표현되는데, 이 가중치 행렬의 한 값이 바로 해당 가중치 행렬 값으로 표현되는 시냅스를 통한 두 뉴런 간 연결의 정도를 표현한다. 딥러닝의 학습 과정은 입력과 출력을 가장 잘 맞출 수 있도록 신경망의 가중치 행렬과 편향값(bias)이 신경망이 추정하려고 하는 확률 모델에 가장 근접하도록 최적화하는 과정으로 수학적으로 표현된다. 특정한 입력, 출력 뉴런 사이의 연결이 강화되어야 모델을 더 잘 추정하게 된다면 해당 시냅스를 표현하는 가중치 행렬 값이 커지게 되고, 특정한 입력, 출력 뉴런 사이의 연결이 약화되거나 억제(inhibition)되어야 신경망이 추정하고자 하는 모델을 더 잘 추정하게 된다면 해당 가중치 행렬의 값을 줄이는 방식으로 학습이 이루어지게 된다. 

이렇게 우리 두뇌의 작동을 신경생리학, 생물심리학의 연구 성과에 기초해서 수학적으로 표현한 “맥컬로크-피츠의 신경 세포 발화 모델(the McCulloch-Pits model)”, “헵 학습 이론(Hebbian Learning Theory)”, 그리고 이를 이용해 인공지능 문제 해결에 응용한 “퍼셉트론(perceptron)” 이론의 영향을 받아 생물물리학자인 존 홉필드(John Hopfield)가 “홉필드 네트워크(the Hopfield neural network)”라는 재귀 신경망(recurrent neural network) 모델로 연상 기억(associative memory)과 망각(forgetting)을 설명하는 이론을 내면서 딥러닝과 신경망 모델이 다시 주목을 받기 시작했다.

이렇게 신경망 모델이 다시 주목을 받기 시작하면서, 신경망 모델의 학습을 위한 알고리즘으로 당시 카네기 멜런 대학에 재직 중이던 데이비드 러멜하트(David E. Rumelhart), 제프리 힌튼(Geoffrey Hinton), 로널드 윌리엄스(Ronald J. Williams)가 “역전파(back-propagation) 알고리즘”을 제안하면서 다층 신경망의 학습 방법에 큰 발전의 계기가 마련되게 된다.

사실 이때까지만 해도 신경망 알고리즘은 통계적 기계 학습 이론과 크게 관련이 없고, 우리 두뇌의 신경망이 어떻게 학습하는지를 표현하고 연구하기 위한 수학적인 모델에 불과했다. 하지만, 신경망을 학습시키는 알고리즘으로 “역전파(back-propagation) 알고리즘”이 제안되고, 이 “역전파 알고리즘”이 일반적인 신경망을 학습시키는 방법으로 경사 하강(gradient-descent) 알고리즘 방식의 최적화 알고리즘과 연관되어 발전하면서, 이 경사 하강 방식의 최적화 알고리즘을 유도하고 이해하기 위한 이론적인 틀로 통계 이론이 활용되기 시작했다. 

이렇게 “퍼셉트론(perceptron)”으로 시작된 “다층 전향 신경망(multi-layer feed-forward neural network) 구조”, 그리고 이 “다층 전향 신경망(multi-layer feed-forward neural network)” 구조를 학습시키기 위한 방법으로 제안된 “역전파(back-propagation) 알고리즘”, 그리고 “다층 전향 신경망(multi-layer feed-forward neural network)”을 학습시키는 방법으로써 “역전파(back-propagation) 알고리즘”과 이를 다시 가중치 행렬(weight matrix)와 편향값(bias)를 파라미터로 하는 확률 분포(probability distribution)를 찾는 “확률 분포 추정(probability distribution estimation)” 문제로 표현한 통계적 기계 학습 이론의 도입이 오늘날 딥러닝 기술의 틀을 만든 것이다.

최신의 딥러닝 기술을 잘 아는 독자분들께서는 “다층 전향 신경망(multi-layer feed-forward neural network)” 말고도 “장단기 기억 재귀 신경망(Long-Short Term Memory Recurrent Neural Network)”, “심층 생성 모델(Deep Generative Model)”, “심층 강화 학습(Deep Reinforcement Learning)”, “심층 베이지안 학습 모델(Deep Bayesian Learning Model)”등 다양한 딥러닝 모델이 있다고 말씀하시는 분들도 있을 것이고, “역전파(back-propagation) 알고리즘”이 아닌 방법을 사용하는 학습 알고리즘도 많다고 반박하시는 분들도 있을 것이다.

필자도 이런 사실을 잘 알고 있다. 다만 오늘날의 딥러닝 기술을 만든 큰 흐름과 대부분의 딥러닝 모델의 구조가 다층의 “가중치 매트릭스(weight matrix)”와 “편향값(bias)” 파라미터로 표현되는 확률 분포를 데이터로부터 추정하는 문제로 표현되어 있다는 공통의 특징을 설명하려고 한 것이며, 현대의 딥러닝 모델은 이와 같이 우리 두뇌의 정보 처리 방법을 통계 이론의 언어를 빌려 표현한 것이라는 것을 설명하려고 한 것이다.

현재 딥러닝 기술이라고 부르는 기술은 사실 우리 두뇌의 정보 처리 과정을 이해하려고 노력하는 과정에서 만들어진 수학적인 모델일 뿐이며, 이 수학적인 모델은 우리 두뇌의 정보처리 과정의 아주 일부분만을 설명하고 표현할 수 있다. 이 점이 인공지능 기술의 미래를 이해하기 위해 여러분들이 꼭 이해해야 하는 점이다.

인공지능 기술의 스펙트럼이 워낙 넓어 모든 세부 기술에 대해서 장, 단점과 한계를 분석하고 그 미래의 효용에 대해서 소개하기 위해서는 인공지능 기술에 대한 개론서 수준의 책을 한 권 써야 할 것이기에, 이 글과 앞으로 두세 편의 글에서 다룰 인공지능 기술은 딥러닝을 비롯한 최근 이슈가 된 몇 가지 기술로 한정해서 살펴보도록 한다.

다시 앞서 언급한 인공지능 기술의 세 번째 오해에 대한 논의로 돌아가도록 하자. 정말 텐서플로우(TensorFlow) 및 파이토치(PyTorch) 기술을 완벽하게 마스터한다고 해서 인공지능 기술을 금방 만들 수 있고, 기업의 비즈니스 모델이 획기적으로 변화될까? 정말로 텐서플로우 및 파이토치 기술을 잘 활용하고 요즘 유행하는 AutoML과 같은 딥러닝 모델 자동 탐색 기술, 기계 학습 파이프라인 및 자동화 인프라 구축과 같은 인프라를 구축한다고 해서 기업의 비즈니스 모델을 획기적으로 개선할 무언가가 나올 수 있을까?

세 번째 오해는 앞서 소개한 두 번째 오해와 아주 밀접한 관련이 있다. 텐서플로우, 파이토치, AutoML등의 딥러닝 모델 자동 탐색 기술, 기계 학습 파이프라인 및 자동화 인프라 구축, 주요 인공지능 학술회의에서 쏟아져 나오는 다양한 최신 딥러닝 모델 및 새로운 기계 학습 알고리즘들 모두를 알면 정말 우리가 원하는 자동화된 비즈니스 플랫폼을 당장 만들 수 있을까?

위에서 언급한 기술들은 인공지능 기술을 만드는 도구가 되는 기술(텐서플로우(TensorFlow), 파이토치(PyTorch), AutoML, 에어플로우(AirFlow), 쿠브플로우(KubeFlow), 확장 텐서플로우(TensorFlow Extended)를 이용한 기계 학습 파이프라인 및 자동화 기술 등)이거나, 인공지능 기술의 전체 스펙트럼에서 아주 일부, 작은 일부가 되는 기술(CNN, RNN등의 딥러닝 모델 요소, BERT, GPT-3등의 대형 자연어 처리 모델)들이다. 이런 기술들의 장, 단점을 파악하고, 이런 기술들을 이용해 고객과 사용자가 정말 사람과 같은 지능을 가진 기계와 상호 작용하는 것과 같은 편리한 서비스가 되어야 비로소 인공지능 기술이 되는 것이다.

기업의 CIO와 정보 기술 의사 결정 담당자가 바로 이 부분에서 중요한 역할을 해야 하는 것이다. 현재 알려진 인공지능 기술들 대부분은 인공지능 요소 기술들이다. 즉, 이 기술 하나를 제대로 안다고 해서 인공지능이 되는 것이 아니라, 인공지능을 만들기 위해서 활용해야 할 도구나 일부 부품에 해당하는 기술들이다. 이런 다양한 스펙트럼의 기술들의 장, 단점과 특성을 이해하고, 고객과 사용자가 지능을 가진 객체와 상호작용하면서 거부감없이 자연스럽고 사람에 친화적인(human-friendly) 사용자 경험과 인터페이스를 제공하면서 편리함을 제공하는 서비스나 상품이 되어야 비로소 인공지능 기술이라고 할 수 있다. 이런 인공지능 기술과 서비스, 상품이 되도록 기술 요소들을 전략적으로 선택하고 비즈니스 정보 시스템을 설계, 구축하도록 리더십을 발휘하는 것이 바로 기업의 CIO와 정보 기술 의사 결정 담당자가 인공지능 기술을 활용하기 위해 해야 할 일이다.

이런 측면에서 현재 인공지능 기술이 할 수 있는 서비스나 시스템의 지능화 수준은 우리가 기대하는 것보다 상당히 낮다고 볼 수 있다. 딥러닝 기술을 예로 들어보더라도, 현재 딥러닝 기술로 할 수 있는 많은 작업들이 우리 두뇌의 저수준(low-level)에서 본능적이고 자동화된 방식으로 일어나는 작업들인 경우가 많기 때문이다. 

정말로 지능을 가진 존재와 상호작용하는 것과 같이 느끼게끔 할, 추론(reasoning), 정보의 개념화, 지식화, 재조직화, 인과관계(causality)의 학습 및 인지, 고등 감정의 공감 및 소통, 맥락에 따른 언어의 화용(discourse) 이해, 비유적 추론을 통한 지식 확장과 같은 현재 인간만이 가지고 있다고 생각되는 고등 정신 과정까지 모델링하기에 우리가 우리의 두뇌의 작동 방식과 인지 프로세스에 대해서 모르는 것이 너무 많다. 우리가 만드는 것이 무엇인지도 모르면서 그걸 기술로 만드는 것은 불가능하기 때문에, 아직 우리 두뇌와 지능에 대해 가진 지식과 이해의 이런 많은 빈틈을 메우지 않으면 인공지능 기술은 결코 만들 수 없다.

딥러닝을 비롯한 최근 기계 학습 기술들이 4 ~ 5년 전에 비하면 비약적으로 발전한 것은 분명하다. 앞으로 사이버 물리 시스템을 이용한 지능형 서비스 비즈니스에서 볼 수 있는 인공지능 기술의 미래는 이렇게 인공지능 기술이 기계에 실제로 줄 수 있는 자율성과 지능의 수준과 사람들이 인공지능이라는 말에서 받는 인상과 느낌에서 드는 지능형 서비스와 상품 수준의 기대감 사이의 차이(gap)를 점차 줄여가는 과정이 될 것이다.

인공지능 기술은 시스템 기술이다. 이 말은 하드웨어와 소프트웨어가 적절한 수준으로 같이 발전됨과 동시에, 하드웨어, 소프트웨어가 인공지능이라는 같은 목표를 향해서 하나의 전일적인(holistic) 시스템으로 온전하게 통일되어야 기계로부터 지능이라 불릴 수 있는 것을 볼 수 있고, 이를 우리 생활에 편리하게 활용할 수 있다. 

이 얘기는 어느 한 종류의 하드웨어, 어느 한 소프트웨어 하나가 단번에 인공지능을 만들어낼 수 없음을 의미한다. 최근 가장 많이 발전한 인공지능 기술의 하나인 자연어 기반의 대화 인터페이스(conversational interface) 기술의 경우, BERT, GPT-3와 같은 대형 딥러닝 모델에 점점 더 많은 자연어 데이터를 학습시켜 실제 사람과 대화하는 것과 유사하게 출력을 내도록 고도화하고 있지만, 아직 이런 기술들이 우리 인간이 대화를 통해 서로 공감하고 알아가며 의사소통하는 과정을 온전하게 구현하지는 못하고 있다. 오로지 비슷하게 흉내를 내고 있을 뿐이다.

우리들이 언어를 사용해서 소통할 때, 단순히 언어 심볼을 조작한다고 해서 서로 소통한다는 느낌을 받지 않는다. 언어는 우리 정신의 최상위층에서 일어나는 정신과정(cognitive process)의 하나이기 때문에, 우리가 한 문장을 말하기 위해서는 그 아래에서 훨씬 더 많은 수의 다양한 정신 과정(cognitive process)이 동시에 일어나고 이런 정신 과정이 하나의 문장 속에 내포된 의미와 의도로 응축되는 과정이 필요하다. 거대한 딥러닝 모델이, 더군다나 아직 뭘 배우는지도 분명하게 알 수 없는 딥러닝 모델을, 마냥 사이즈만 키우고 데이터만 늘려서 학습 시킨다고 해서 우리와 같은 방식으로 언어를 배워 사용한다고는 볼 수 없다.

인공지능은 단순히 하나의 요소 기술로서 대변되는 문제가 아니라, 복잡하고 다양한 정신 과정을 구현하는 수학적 모델들과, 하드웨어, 소프트웨어 기술들이 적절한 아키텍처와 시스템 디자인을 통해 통합되어야 만날 수 있는 기술이다. 우리가 현재 알고 있는 다양한 인공지능 기술들이 도구가 되어, 앞으로 뇌과학과 심리학, 인지 과학에서 밝혀낼 다양한 정신 과정에 대한 지식과 이해를 기초로, 적절한 아키텍처와 구조를 가진 소프트웨어와 하드웨어 시스템이 통합된 전일적인 시스템을 만드는 방법을 찾아낼 때, 우리가 그토록 바라는 인공지능 시스템을 볼 수 있을 것이다.

이런 의미에서 사이버 물리 시스템, 그리고, 사이버 물리 시스템의 대표적인 예인 자율주행 자동차나 로봇과 같은 자율 에이전트는 인공지능 기술의 총아이며 대표적인 기술로 볼 수 있다. 필자가 빅데이터 비즈니스의 미래 지향점으로 계속 소개하고 있는 사이버 물리 시스템 기반의 지능형 서비스에서 인공지능 기술이 중요한 이유중의 하나이다. 조금 더 과장해서 얘기하면, 사이버 물리 시스템을 구성하는 모든 기술 요소들은 사이버 물리 시스템이 진정한 인공지능 시스템으로 발전, 진화하기 위해 필요한 기술 요소들이라고도 얘기할 수 있다.

지금까지 앞에서 소개한 세 가지 오해와 과장된 기대로 인해서, 최근 언론과 사람들이 인공지능 기술에 대해서 가지는 위협과 문제 의식은, 고민해야 하는 문제들인 것인 맞지만 실제 상황에 비해서 지나치게 과장되고 부풀려져 있다고 보는 것이 많다. 이런 인공지능 기술에 대한 적절치 못한 지나친 거부감과 문제의식, 또는 지나친 기대감과 맹목적인 맹신은, 인공지능 기술을 활용하는 데 걸림돌이 된다. 이에 더해서, 인공지능 기술을 사용하는 과정에서 우리 인류가 만나게 될 기술적, 윤리적, 철학적인 문제들을 엄밀하게 연구하고 해결하는 데 방해가 되고, 인공지능 기술에 대한 왜곡된 시각을 만들어 기술을 적절한 방식으로 활용하지 못하도록 하여 또 하나의 기술적 위험이 될 수 있다.
 
 



2020.07.27

김진철의 How-to-Big Data | 빅데이터의 미래 (9)

김진철 | CIO KR
지난 서른다섯 번째 글부터는 빅데이터 비즈니스와 기술의 미래를 현재 기술들의 동향과 전망을 가지고 같이 엿보고 있다. 빅데이터 비즈니스와 기술의 미래로서, 사이버 물리 시스템(CPS)으로 발전해가는 미래 정보통신 기술과 지능형 서비스의 미래를 소개하였고, 앞으로의 빅데이터 비즈니스와 기술의 발전은 이 사이버 물리 시스템(CPS)으로 구현되는 다양한 지능형 서비스들을 중심으로 이루어질 것이라고 설명하였다. 이와 함께, 이 사이버 물리 시스템(CPS)의 기반이 되는 다양한 기술들의 현재와 미래, 이들의 사이버 물리 시스템과의 관련성에 대해서 살펴보고 있다. 지금까지 클라우드 컴퓨팅 기술, 5G 이동통신과 모바일 에지 컴퓨팅으로 대표되는 미래 통신 기술, 사물인터넷(IoT)과 에지 컴퓨팅 기술들이 어떻게 사이버 물리 시스템(CPS) 기반의 지능형 서비스와 관련이 있는지 같이 살펴보았다.
 
ⓒGetty Images

인공지능 기술에 대한 우리들의 오해 (1) – 지나친 낙관론과 과대평가
이번 글부터 두, 세 편의 글에서는 사이버 물리 시스템(CPS) 기반 지능형 서비스의 가장 핵심이 될 것으로 보이는 인공지능 기술의 현재와 미래, 전망에 대해서 같이 살펴보고자 한다. 우리나라 대기업들이 앞다투어 인공지능 기술에 대한 대규모 투자 계획을 발표하고 있고, 우리나라 정부를 포함한 세계 각국 정부들도 인공지능 기술 경쟁에서 앞서 나가기 위해 다양한 계획들을 발표하고 있는 현 상황에서 과연 이런 인공지능 기술에 대한 열기가 기대하는 만큼의 물질적인 번영과 부를 가져다줄 수 있을지, 그렇다면 어느 정도로 광범위하고 다양하게 우리 사회에 영향을 끼칠지 같이 생각해보는 시간을 가지려고 한다.

2016년 1월 “알파고(AlphaGo)”가 이세돌 9단을 이긴 사건을 계기로 최근 5년간은 IT 기술 매체의 많은 지면과 영역을 인공지능 관련 기술들에 관한 내용이 채워왔다. “알파고”를 만든 구글의 “딥마인드(DeepMind)”는 여전히 수익을 내지 못하고 2019년 8월 기준으로 1조 5천억 원이 넘는 큰 부채를 안고 있는 회사임에도 불구하고 기업 가치가 엄청나게 상승했으며, “딥마인드”의 기업 가치가 앞으로도 높게 평가될 것임에 대해서는 대부분의 전문가가 부정하지 않는 것 같다. 최근 벤처 캐피털리스트들의 투자 기조가 코로나바이러스로 인한 경기 위축과 “우버(Uber)”나 “위워크(WeWork)”와 같은 주요 유니콘 기업들의 실적 부진, 도덕적 해이(Moral Hazard)로 미래 성장성보다는 현실적인 수익 전망을 중심으로 보수적으로 돌아섰다고는 하지만, 인공지능 기술에 대한 기대는 쉽게 수그러들지 않는 것 같다.

지금까지는 사이버 물리 시스템(CPS) 관련 기술들의 미래 전망에 대해서 긍정적인 측면에서 많이 다루어 왔고, 이런 긍정적인 측면을 뒷받침할 만한 근거들도 많이 소개하였다. 인공지능 기술의 현재와 미래에 대해서는 조금 다른 방식으로 접근해보려고 한다. 먼저, 현재 우리들이 가지고 있는 인공지능 기술의 기대감과 전망이 정말 현실성이 있고 적절한 것인지, 우리가 지나치게 긍정적으로 생각하고 있는 것은 아닌지, 인공지능 기술에 대해서 우리가 가지고 있는 오해와 편견에 대해 살펴보려고 한다. 인공지능 기술의 미래 가능성에 대해서 조금이나마 정확하게 살펴보기 위해서는 이런 오해와 편견을 걷어내는 것이 중요하다고 필자는 생각한다.

IT 기술 매체에서 다양한 IT 기술들의 전망에 대해서 긍정적인 측면을 부각하고 보여주는 것은 IT 기술 시장의 새로운 비즈니스가 실현될 수 있도록 투자 자금이 흘러들 수 있도록 하는 긍정적인 측면도 있지만, 새로운 기술이 수익성 있고 지속가능한 비즈니스로 실현되기 위해 필요한 다양한 측면을 있는 그대로 보지 못하게 하고 지나치게 기술적인 측면만 보게 하는 부작용도 있다. IT 기술 매체에서 다뤄지고 있는 인공지능 기술은 이 양극단이 다른 어떤 IT 기술보다도 극단적으로 나타나고 있어서 인공지능 기술을 이용한 비즈니스를 기획, 설계하는 사람들이 주의해서 이들 정보를 보는 것이 좋다.

첫 번째로, 인공지능 기술에 대한 가장 큰 오해는 현재의 인공지능 기술이 사람과 같은 수준의 자율성과 지능을 가진 수준을 가진 기술로 곧 발전할 수 있다고 하는 가정에 근거하여 나오는 많은 추측과 지나치게 긍정적인 전망들이다.

인공지능 기술에 대한 많은 오해와 과장된 기대감을 불러일으키는 가장 큰 원인은 바로 “인공지능(Artificial Intelligence)”라는 말과 관련이 있다. 인공지능 분야는 최근 IT 매체에서 주목받는 어느 기술 영역보다도 가장 광범위하고 다양한 기술 영역을 다루는 분야임에도, 무엇이든 할 수 있는 요술 방망이 같은 단일 기술의 인상을 준다. 기술의 성숙도 측면에서도 다른 기술들에 비해 많이 부족하지만 마치 지금 당장이라도 쓰면 금맥을 발견할 수 있게 해주는 기술인 것처럼 과장되는 측면이 없지 않다.

인간의 “지능(Intelligence)”이라는 말 안에 포함된 심리학적 현상들이나 개념은 다양하고 범위가 넓다. 이런 “지능”을 인공적으로 만들 수 있게 하는 기술이라는 의미를 담고 있는 “인공지능”라는 말 한 단어로 “인공지능” 기술을 써서 ~한 제품을 만들었다고 얘기하면, 어떤 상품에 벌써 사람과 같은 “지능”이 들어간 것 같은 느낌이 든다. 이런 “느낌”이 요즘 “4차산업혁명”이라는 말과 “인공지능”이라는 말을 접했을 때 대부분의 사람들과 기사를 쓰는 언론인들이 느끼는 느낌이다. “인공지능”이라는 말은 과학기술 용어가 어떻게 남용되고 있는지 가장 잘 보여주는 사례가 아닌가 한다.

문제는 이 “느낌”이 실제 “인공지능”을 전문적으로 연구하는 과학자, 공학자들과 관련된 분야에서 일하는 전문가들이 쓰는 맥락과 너무 다르다는 것이다. 물론, “인공지능”이라는 학문 분야의 궁극적인 목적은 사람과 같이 생각하고 행동하는 컴퓨터와 기계를 만드는 것이다. 그렇지만, 아직 우리는 “인공지능”이라는 학문을 통해 그런 목적을 달성하지 못했다. 심지어는 뭘 만들어야 우리 자신과 같은 지능을 가진 컴퓨터나 기계를 만들 수 있는지도 잘 모를 뿐만 아니라, 우리가 가진 “지능”의 실체에 대해서도 아주 일부분만 이해하고 있을 뿐, 얼마나 이해하고 있는지도 잘 모르고 있다.

그뿐만 아니라, 우리가 만든 “인공지능” 시스템이 사람과 같은 수준의 지능을 가지고 있는지, 이를 어떻게 알 수 있는지 이에 대한 답도 완전하게 얻지 못했다. 물론 원론적인 수준에서는, 앨런 튜링에 의해 제안된 “튜링 테스트(Turing Test)”와 컴퓨터 과학자인 알론조 처치(Alonso Church)가 제안한 “중국인 방 테스트(Chinese Room Test)”와 같은 방법이 있지만, 매우 추상적이고 원론적인 수준의 테스트이다. 실제 컴퓨터 시스템에 이 “튜링 테스트”와 “중국인 방 테스트”를 적용하기 위해서 아직 기술적으로 해결되지 않은 부분이 많다.

또한 좁게는 사람의 “지능(Intelligence)”, 좀 더 포괄적으로는 인간의 “마음(Mind)”을 이해하기 위해 연구하는 학문은 컴퓨터 과학만이 아니다. 인간의 “마음”을 이해하기 위해 연구하는 과학자, 공학자들은 수학, 물리학, 심리학, 뇌과학과 생물학, 철학, 인지과학, 컴퓨터 과학, 뇌공학 등 다양한 학분 분야에 걸쳐 있고, 예전에는 이렇게 다양한 학문 분야를 아울러 인간의 “마음”이 무엇인가에 대한 다양한 가설과 해답을 추구했지만, 요즘은 이들 학문 분야가 서로 협력하여 인간의 “마음”에 대한 퍼즐을 같이 맞추어 가는 상황이다.

우리가 소위 “인공지능” 기술에 대해서 현재 가져야 하는 기대감과 희망을 당분간은 대폭 낮춰야 하는 이유가 바로 여기에 있다. 우리가 만드는 인간의 “마음”의 실체가 무엇인지도 모르는데, 어떻게 만들 수 있단 말인가? 설사 튜링 테스트를 통과한 “인공지능”이 있다고 해도, 이런 “인공지능”이 계산을 통해 내린 결론과 행동을 우리가 과연 이해할 수 있을 것인가? 우리가 이해하지 못하는 대상이 사람과 같이 말하고 행동한다고 해서 사람과 같은 지능적 존재라고 단정할 수 있을 것인가?

“인공지능” 기술은 기술적으로도 아직 성숙되지 않았지만, “인공지능” 기술이 실용화되었을 때 우리가 이런 존재와 어떻게 어울려 살아갈 수 있을지, 이런 존재와 함께했을 때 나타날 수 있는 좋은 점과 부작용에 대해서도 많은 논란과 연구가 이어지는 중이다. “인공지능” 기술이 사람과 같은 수준의 기술로 발전했을 때에만 이런 문제가 부각되는 것이 아니라, 사실은 그 전에 사람과 같은 수준의 지능은 아니지만 특정한 영역의 작업에서 높은 지능을 가진 지능형 기계와 같은 불완전한 “인공지능” 기술이 활용되는 시기에 생겨나는 문제가 더 많고 복잡하다.

“인공지능”과 관련된 기술적, 철학적인 문제는 이 지면에서 다루기에는 너무 광범위하고 복잡해서 깊게 다루지는 않겠다. 다만, 필자가 여기서 독자분들에게 전달하고자 하는 것은 “인공지능”이란 말에 대한 오해를 접고 좀 더 실용적이고 현실적으로 이 기술을 어떻게 활용할 것인지 생각해야 한다는 것이다. “인공지능”이란 말을 앞세워서 새로운 비즈니스를 만들고 조직에서 승진하고 승승장구하고 싶은 분들이 많겠지만, “인공지능” 기술이 아직 성숙된 기술이 아니고, 아직도 연구를 통해 밝혀내고 이해해야 할 영역이 많은 불완전한 기술이라는 점을 이해해야 한다. 실제 실무에 적용해서 가치 있는 상품을 만들어낼 수 있을 정도로 “인공지능” 기술을 잘 활용하기 위해서는 활용하려는 특정한 “인공지능” 기술이 어떤 한계를 가지고 있고, 어떤 문제를 가장 잘 해결할 수 있는지 비판적인 지식과 통찰을 가지고 있어야 한다.

“인공지능”이라는 말 아래에는 다양한 영역의 문제를 해결하는 다양한 기술이 포함되어 있다. 인간의 “마음”이 보여주는 특성도 그만큼 다양하기 때문이다. 최근 인기를 끌고 있는 “기계 학습(Machine Learning)” 기술도 “인공지능(Artificial Intelligence)”이라는 말만큼이나 많은 오해와 편견을 불러일으키는 말 중의 하나다. 우리의 “마음”이 보여주는 중요한 특징인 “학습(Learning)”하는 능력은 우리의 “마음”이 가진 중요한 능력 중의 하나이다. 하지만, 학습하는 능력만 갖춘다고 해서 우리가 가진 “마음”을 똑같이 만들 수 있는 것일까? 그렇지 않다는 것이다.

“인공지능”과 심리학, 인지과학 분야에서 다양한 “기계 학습” 모델을 통해 컴퓨터는 쉽게 해결하지 못하지만 인간의 “마음”은 쉽게 해결하는 다양한 문제들을 모델링하고 이를 컴퓨터가 풀 수 있도록 하는 방법들을 밝혀내기는 했지만, 이런 모델들은 이런 각각의 문제에 대해서만 인간의 “마음”와 비슷하게 동작하는 것이지, 이런 “기계 학습” 모델 하나만 가지고 우리의 “마음”을 동일하게 만들 수 있는 것은 아니다. “학습”할 수 있는 능력은 우리의 “마음”이 가진 다양한 특성 중의 하나이지, 이 특성 하나만 가지고 우리의 “마음”이 완성되는 것은 아니라는 것을 이해할 필요가 있다.

이렇게 “인공지능”이 목표로 삼고 있는 우리의 “마음”을 컴퓨터가 우리와 같은 수준으로 흉내 내고 동작하기 위해서는 우리 “마음”의 다양한 특성들과 역량들이 컴퓨터 소프트웨어화되어 완전하게(holistically) 통합(integration)되고, 이렇게 통합된 인공지능이 “마음”의 통합된 전체와 같은 특성과 능력을 보일 수 있도록 하나의 전체, 완전체로서 동작할 때에야만 우리가 현재 생각하는 “인공지능(Artificial Intelligence)”이라는 말에 걸맞은 기대와 문제점을 드러내게 될 것이다. 

인공지능 기술에 대한 우리들의 오해 (2) – 인공지능 본연의 기술과 도구 기술의 혼동
두 번째로, 인공지능을 만드는 데 쓰는 도구가 되는 기술과 인공지능 기술을 혼동함으로써 오는 혼란과 오해이다. 인공지능을 만드는 데 쓰는 도구가 되는 기술을 잘 알고 쓴다고 해서 인공지능 기술을 잘 알고 만들 수 있는 것은 아님에도 불구하고, 최근 인공지능 기술을 대표하는 기술로 텐서플로우(TensorFlow)와 같은 소프트웨어 도구가 소개되는 것은 오해와 혼란의 여지가 있다.

현재 가장 인기 있는 인공지능 기술인 “딥러닝(Deep Learning)”은 사실 전문가들 입장에서는 일종의 범용 근사 계산기(universal approximator)에 가까운 기술이다. 보통 일반 매체에서 딥러닝을 이용한 인공지능 기술을 소개하는 경우 모델을 디자인하고 검증하는 수고에 대해서는 잘 언급하지 않고 데이터만 있으면 딥러닝 모델이 학습할 대상을 알아서 학습한다는 식으로 표현하는 경우가 많아서 딥러닝 기술이 만능인 것 같은 인상을 줄 때가 많다. 최근 인공지능 붐이 딥러닝에서 시작된 것을 생각하면 현재 일반 대중들, 심지어는 IT 분야에서 일하는 분들까지도 이렇게 왜곡되게 표현한 딥러닝 기술로 대표되는 인공지능 기술에 대한 보도나 기사들 때문에 데이터만 모아주면 딥러닝 모델이 알아서 원하는 작업을 해주는 것 같은 인상을 받는 경우가 많은 것 같다.

딥러닝 모델을 활용하는 기계 학습 엔지니어들의 입장에서는 딥러닝만큼 다루기 쉽지 않은 기계 학습 기술이 없다. 우선 보통 “통계적 학습 이론(statistical learning theory)”에 따른 기계 학습 모델들에 비해서 학습할 파라미터의 수가 훨씬 많기 때문에 더 많은 데이터가 필요할 뿐만 아니라, 확률 모델로 어느 정도 분명한 해석이 가능한 다른 기계 학습 모델들에 비해서 딥러닝 모델은 입력과 출력 노드 뉴런들의 값을 제외하고는 모델의 대부분을 구성하는 가중치 텐서(weight tensor)와 숨겨진 노드(hidden node)들이 뭘 나타내고 배우고 있는지 해석하기가 쉽지 않다.

딥러닝 모델을 우리가 원하는 대로 동작시키기 위해서는 입력 노드에 어떤 자질(feature)들로 데이터를 표현할지도 주의 깊게 설계해야 하는데, 이 과정이 보통 그렇게 쉽지 않은 경우가 많다. 컨볼루션 신경망(Convolution Neural Network; CNN)처럼 영상 데이터에 주로 쓰이는 딥러닝 모델은 그나마 조금 나은 편이지만, 자동화된 제어나 예측 분석 등의 특수한 응용 분야에 적용되는 딥러닝 모델은 입력 노드가 표현하는 “상태 공간(configuration space)”을 기계 학습 엔지니어가 설계하는 방식에 따라서 학습 성능과 모델의 정확도, 유용성이 천차만별로 달라지는 경우가 많다. 이런 이유로 사실 데이터만 있으면 알아서 배운다는 말이 무색할 정도로 딥러닝 모델을 만드는 작업은 많은 시행착오를 동반하는 경우가 많다.

그나마 요즘은 텐서플로우와 파이토치(PyTorch)와 같이 딥러닝 모델 개발을 쉽고 빠르게 해줄 수 있는 기계 학습 소프트웨어 프레임워크 기술이 크게 발전해서 딥러닝을 사용하는 기계 학습, 인공지능 기술 엔지니어와 연구자들의 이런 고충과 수고를 많이 덜어주고 있다. 그렇지만, 딥러닝 모델이 가진 근본적인 한계를 이런 기계 학습 소프트웨어 프레임워크 기술이 모두 해결해주는 것은 아니기 때문에 여전히 딥러닝 모델을 현장에서 적용하는 것은 말처럼 쉽지 않은 일이다. 사실 딥러닝 기술의 이런 한계 때문에 오히려 텐서플로우와 같은 소프트웨어 프레임워크 기술의 발전이 더욱 필요하기도 하고, 이런 이유로 텐서플로우와 같은 기술이 중요한 인공지능 개발을 위한 소프트웨어 기술로 각광받고 있기도 하다.

텐서플로우나 파이토치 자체는 인공지능 기술이 아니라는 것을 독자 여러분들께서는 다시 환기해둘 필요가 있다. 많은 IT 전문가들도 잘 아시겠지만, 텐서플로우와 파이토치는 딥러닝 같은 기계 학습 모델을 잘 만들 수 있도록 도와주는 소프트웨어 도구이다. 이런 기계 학습 모델을 쉽게 프로그래밍할 수 있도록 돕는 소프트웨어 도구를 이용해서 기계 학습 전문 소프트웨어 엔지니어들이 목적에 맞는 딥러닝 모델과 기계 학습 모델을 설계하고 테스트해서 실제 현장의 응용 분야에 쓰일 수 있도록 배치해야 비로소 우리가 체감하는 인공지능 기능을 가진 서비스나 제품으로 기능을 하는 것이다.

인공지능 기술과 이런 인공지능을 가능하게 하는 개발 도구는 분명히 구분해서 소개하고 다뤄져야 함에도 인공지능 기술을 만드는 것을 돕는 개발 도구가 인공지능 기술의 대표적인 기술인 것 같은 인상을 주게끔 많은 매체에서 소개하고 있어 혼란을 주고 있는 것 같다. 독자분들은 이 점을 분명히 구분해서 받아들여야 인공지능 기술에 대한 혼란을 줄일 수 있을 것이다.

이렇게 인공지능 기술과 인공지능을 만드는 데 쓰는 도구가 되는 기술을 인공지능 기술로 혼동함으로써 오는 혼란은 앞서 설명한 첫 번째 오해와 관련이 있다. 이 점과 관련해서 세 번째로 짚고 넘어가야 할 오해와 편견이 있다.

인공지능 기술에 대한 우리들의 오해 (3) – 특정 인공지능 요소, 도구 기술에 대한 지나친 맹신
세 번째로 우리가 생각해봐야 할 오해와 편견은, 소위 텐서플로우(TensorFlow)와 같은 인공지능 기술을 익히고 잘 활용하면 금방이라도 사람들이 실직할 수 있고 사회적으로 문제가 되는 자동화 기술이나, 곧 대박을 낼 수 있는 혁신적인 수준의 인공지능을 만들 수 있을 거라는 생각이다.

현재 인공지능 기술로 불리는 기술들을 써서 정말로 우리와 같은 지능을 가진 인공지능을 만들 수 있을지 없을지 아직 알 수 없고, 만들 수 있다고 해도 아주 일부분의 특정한 작업만 잘 할 수 있는 인공지능을 만들 수 있을 뿐이다. 우리 현재 인공지능 기술로 불리는 많은 기술들이 다른 과학, 공학 분야와 달리 아직 검증되지 않은 가설을 컴퓨터를 이용한 모델로 만들어 놓은 것에 불과한 것이 많고, 이런 모델로 만든 컴퓨터와 자율형 기계의 지능적인 행동이 정말로 우리가 보여주는 행동과 지능에 비교해서 같은 것인지 알 수 없는 경우가 대부분이다.

현재 알려진 인공지능 기술을 활용함에 있어서 세 번째 오해를 이해하는 것은 정말 중요하다. 그리고, 이 세 번째 오해는 앞의 첫 번째 오해와 두 번째 오해 때문에 결국 나타나는 현상이다.

진짜 인공지능을 만드는 것과 지금까지 연구된 인공지능 분야의 지식과 기술을 응용해서 산업현장과 비즈니스에 응용해서 자동화율을 높이고 프로세스의 효율과 스피드를 개선하는 일의 차이를 분명하게 구분하여 생각할 필요가 있다. 인공지능을 만들기 위해 우리가 직면한 도전과 한계에 대해서 인공지능 전문가뿐만 아니라 인공지능을 활용하는 보통의 IT 전문가들도 어느 정도 인식할 필요가 있다.

현재 우리가 인공지능 기술이라고 사용하고 있는 알고리즘이나 방법론들은 우리 인간의 마음(Mind)이 수행하는 작업을 흉내 내고 설명하기 위한 모델로부터 시작한 것들이라는 걸 우선 이해할 필요가 있다. 이 모델들 대부분이 인간의 마음과 두뇌가 수행하는 아주 특정한 측면을 설명하거나 이해하기 위해 만든 수학적인 모델들이고, 이 특정한 측면을 벗어난 특징이나 인지 영역으로 들어가면 이런 모델들이 쓸모없게 되거나 다른 모델과 상충하는 결과를 보여주는 것이 많다는 것을 생각해야 한다.

이런 점을 가장 잘 보여주는 인공지능 기술 중의 하나가 바로 요즘 인기를 끌고 있는 딥러닝이다. 딥러닝은 사실 인간 두뇌의 해부학적인 지식을 심리학의 행동 학습을 설명하는 이론과 결부시켜 만든 수학적 모델이다. 이런 측면을 고려하지 않고 딥러닝의 수학적, 이론적인 측면만을 공부한 컴퓨터 과학자, 또는 수리통계학자들은 딥러닝이 알고 보니 그냥 통계 이론에 불과하다고 생각한다.

딥러닝을 비롯한 기계 학습 알고리즘과 기술들을 개발하기 위해 사용하는 이론들은 통계학의 용어와 개념을 빌어 디자인되고 표현된 것이 많다. 이것을 “통계적 기계 학습 이론(statistical machine learning theory)”이라고 하는데, 기계 학습 이론을 심리학, 인지과학, 신경과학의 통합적인 맥락에서 배우지 않고 통계적 기계 학습 이론을 빌어 표현된 기계 학습 알고리즘만 배운 컴퓨터 과학자나 공학자, 소프트웨어 엔지니어들, 통계학자들은 기계 학습이 알고 보니 그냥 통계 이론에 불과하다고 느낄 수 있다.
 
이렇게 그저 통계 이론, 알고리즘의 하나 정도로 여겨지는 인공지능 기술의 본질에 대해서 잠시 생각해볼 수 있는 시간을 가지기 위해 짧게 딥러닝 기술의 역사를 살펴보도록 하자.

딥러닝의 시작은 “맥컬로크-피츠의 신경 세포 발화 모델(the McCulloch-Pits model)”이다. 신경 세포가 전기적인 발화(firing)를 하는 것을 여러 신경 세포로부터의 발화(firing)가, 신경 세포 간 연결 방식인 시냅스를 통해 연결되어 가중 합산(weight summation)되면서 특정한 문턱값(threshold)을 넘어서면 0,1의 전기적인 상태를 표현하는 디지털 신호와 같은 발화를 한다는 것이 맥컬로크-피츠의 신경 세포 발화 모델이다. 

이 맥컬로크-피츠의 신경 세포 발화 모델을 인공지능에 처음으로 응용한 것이 인공지능의 대부인 마빈 민스키(Marvin Minsky) 교수와 맞대결을 펼쳐 유명해진 프랭크 로젠블라트(Frank Rosenblatt) 박사이다. 프랭크 로젠블라트 박사가 제안한 “퍼셉트론(perceptron)”은 현대 딥러닝 및 신경망(neural network) 이론의 기초가 되는 중요한 수학적인 모델이다. 이 “퍼셉트론”은 인간 두뇌의 심리학적, 신경 생리학적 지식을 기초로 만든 수학적인 모델이 우리 두뇌의 정보 처리 방식을 이해하는 데 중요하다는 것을 보여준 사건으로, 뇌과학 및 신경과학, 심리학, 인지과학의 연구 성과를 인공지능 연구에 활용하게 하는 계기가 된다.

“맥컬로크-피츠의 신경 세포 발화 모델”과 함께 딥러닝 이론의 기반이 된 또 하나의 심리학 학습 이론은 캐나다의 심리학자인 도날드 올딩 헵(Donald Olding Hebb)이 우리 두뇌의 학습 원리로 제안한 “헵 학습 이론(Hebbian Learning Theory)”이다. 1949년 도날드 올딩 헵(Donald Olding Hebb)은 심리학자로서 명성을 높이게 된 저서인 “행동의 조직(The Organization of Behavior)”라는 책에서, 신경생리학적인 사실을 바탕으로 우리의 두뇌와 신경 조직은 자주 받아들이고 사용하는 신경 네트워크의 시냅스는 그 연결이 장기적으로 강화되어 더 빠르고 정확하게 자극에 반응할 수 있도록 신경계의 시냅스가 변화한다는 “헵 학습 이론”을 제안하게 된다.

이 “헵 학습 이론”에서 표현하고자 하는 시냅스(synapse) 연결의 강도는 신경망, 즉 딥러닝 모델에서 가중치 행렬(weight matrix)의 값으로 표현되는데, 이 가중치 행렬의 한 값이 바로 해당 가중치 행렬 값으로 표현되는 시냅스를 통한 두 뉴런 간 연결의 정도를 표현한다. 딥러닝의 학습 과정은 입력과 출력을 가장 잘 맞출 수 있도록 신경망의 가중치 행렬과 편향값(bias)이 신경망이 추정하려고 하는 확률 모델에 가장 근접하도록 최적화하는 과정으로 수학적으로 표현된다. 특정한 입력, 출력 뉴런 사이의 연결이 강화되어야 모델을 더 잘 추정하게 된다면 해당 시냅스를 표현하는 가중치 행렬 값이 커지게 되고, 특정한 입력, 출력 뉴런 사이의 연결이 약화되거나 억제(inhibition)되어야 신경망이 추정하고자 하는 모델을 더 잘 추정하게 된다면 해당 가중치 행렬의 값을 줄이는 방식으로 학습이 이루어지게 된다. 

이렇게 우리 두뇌의 작동을 신경생리학, 생물심리학의 연구 성과에 기초해서 수학적으로 표현한 “맥컬로크-피츠의 신경 세포 발화 모델(the McCulloch-Pits model)”, “헵 학습 이론(Hebbian Learning Theory)”, 그리고 이를 이용해 인공지능 문제 해결에 응용한 “퍼셉트론(perceptron)” 이론의 영향을 받아 생물물리학자인 존 홉필드(John Hopfield)가 “홉필드 네트워크(the Hopfield neural network)”라는 재귀 신경망(recurrent neural network) 모델로 연상 기억(associative memory)과 망각(forgetting)을 설명하는 이론을 내면서 딥러닝과 신경망 모델이 다시 주목을 받기 시작했다.

이렇게 신경망 모델이 다시 주목을 받기 시작하면서, 신경망 모델의 학습을 위한 알고리즘으로 당시 카네기 멜런 대학에 재직 중이던 데이비드 러멜하트(David E. Rumelhart), 제프리 힌튼(Geoffrey Hinton), 로널드 윌리엄스(Ronald J. Williams)가 “역전파(back-propagation) 알고리즘”을 제안하면서 다층 신경망의 학습 방법에 큰 발전의 계기가 마련되게 된다.

사실 이때까지만 해도 신경망 알고리즘은 통계적 기계 학습 이론과 크게 관련이 없고, 우리 두뇌의 신경망이 어떻게 학습하는지를 표현하고 연구하기 위한 수학적인 모델에 불과했다. 하지만, 신경망을 학습시키는 알고리즘으로 “역전파(back-propagation) 알고리즘”이 제안되고, 이 “역전파 알고리즘”이 일반적인 신경망을 학습시키는 방법으로 경사 하강(gradient-descent) 알고리즘 방식의 최적화 알고리즘과 연관되어 발전하면서, 이 경사 하강 방식의 최적화 알고리즘을 유도하고 이해하기 위한 이론적인 틀로 통계 이론이 활용되기 시작했다. 

이렇게 “퍼셉트론(perceptron)”으로 시작된 “다층 전향 신경망(multi-layer feed-forward neural network) 구조”, 그리고 이 “다층 전향 신경망(multi-layer feed-forward neural network)” 구조를 학습시키기 위한 방법으로 제안된 “역전파(back-propagation) 알고리즘”, 그리고 “다층 전향 신경망(multi-layer feed-forward neural network)”을 학습시키는 방법으로써 “역전파(back-propagation) 알고리즘”과 이를 다시 가중치 행렬(weight matrix)와 편향값(bias)를 파라미터로 하는 확률 분포(probability distribution)를 찾는 “확률 분포 추정(probability distribution estimation)” 문제로 표현한 통계적 기계 학습 이론의 도입이 오늘날 딥러닝 기술의 틀을 만든 것이다.

최신의 딥러닝 기술을 잘 아는 독자분들께서는 “다층 전향 신경망(multi-layer feed-forward neural network)” 말고도 “장단기 기억 재귀 신경망(Long-Short Term Memory Recurrent Neural Network)”, “심층 생성 모델(Deep Generative Model)”, “심층 강화 학습(Deep Reinforcement Learning)”, “심층 베이지안 학습 모델(Deep Bayesian Learning Model)”등 다양한 딥러닝 모델이 있다고 말씀하시는 분들도 있을 것이고, “역전파(back-propagation) 알고리즘”이 아닌 방법을 사용하는 학습 알고리즘도 많다고 반박하시는 분들도 있을 것이다.

필자도 이런 사실을 잘 알고 있다. 다만 오늘날의 딥러닝 기술을 만든 큰 흐름과 대부분의 딥러닝 모델의 구조가 다층의 “가중치 매트릭스(weight matrix)”와 “편향값(bias)” 파라미터로 표현되는 확률 분포를 데이터로부터 추정하는 문제로 표현되어 있다는 공통의 특징을 설명하려고 한 것이며, 현대의 딥러닝 모델은 이와 같이 우리 두뇌의 정보 처리 방법을 통계 이론의 언어를 빌려 표현한 것이라는 것을 설명하려고 한 것이다.

현재 딥러닝 기술이라고 부르는 기술은 사실 우리 두뇌의 정보 처리 과정을 이해하려고 노력하는 과정에서 만들어진 수학적인 모델일 뿐이며, 이 수학적인 모델은 우리 두뇌의 정보처리 과정의 아주 일부분만을 설명하고 표현할 수 있다. 이 점이 인공지능 기술의 미래를 이해하기 위해 여러분들이 꼭 이해해야 하는 점이다.

인공지능 기술의 스펙트럼이 워낙 넓어 모든 세부 기술에 대해서 장, 단점과 한계를 분석하고 그 미래의 효용에 대해서 소개하기 위해서는 인공지능 기술에 대한 개론서 수준의 책을 한 권 써야 할 것이기에, 이 글과 앞으로 두세 편의 글에서 다룰 인공지능 기술은 딥러닝을 비롯한 최근 이슈가 된 몇 가지 기술로 한정해서 살펴보도록 한다.

다시 앞서 언급한 인공지능 기술의 세 번째 오해에 대한 논의로 돌아가도록 하자. 정말 텐서플로우(TensorFlow) 및 파이토치(PyTorch) 기술을 완벽하게 마스터한다고 해서 인공지능 기술을 금방 만들 수 있고, 기업의 비즈니스 모델이 획기적으로 변화될까? 정말로 텐서플로우 및 파이토치 기술을 잘 활용하고 요즘 유행하는 AutoML과 같은 딥러닝 모델 자동 탐색 기술, 기계 학습 파이프라인 및 자동화 인프라 구축과 같은 인프라를 구축한다고 해서 기업의 비즈니스 모델을 획기적으로 개선할 무언가가 나올 수 있을까?

세 번째 오해는 앞서 소개한 두 번째 오해와 아주 밀접한 관련이 있다. 텐서플로우, 파이토치, AutoML등의 딥러닝 모델 자동 탐색 기술, 기계 학습 파이프라인 및 자동화 인프라 구축, 주요 인공지능 학술회의에서 쏟아져 나오는 다양한 최신 딥러닝 모델 및 새로운 기계 학습 알고리즘들 모두를 알면 정말 우리가 원하는 자동화된 비즈니스 플랫폼을 당장 만들 수 있을까?

위에서 언급한 기술들은 인공지능 기술을 만드는 도구가 되는 기술(텐서플로우(TensorFlow), 파이토치(PyTorch), AutoML, 에어플로우(AirFlow), 쿠브플로우(KubeFlow), 확장 텐서플로우(TensorFlow Extended)를 이용한 기계 학습 파이프라인 및 자동화 기술 등)이거나, 인공지능 기술의 전체 스펙트럼에서 아주 일부, 작은 일부가 되는 기술(CNN, RNN등의 딥러닝 모델 요소, BERT, GPT-3등의 대형 자연어 처리 모델)들이다. 이런 기술들의 장, 단점을 파악하고, 이런 기술들을 이용해 고객과 사용자가 정말 사람과 같은 지능을 가진 기계와 상호 작용하는 것과 같은 편리한 서비스가 되어야 비로소 인공지능 기술이 되는 것이다.

기업의 CIO와 정보 기술 의사 결정 담당자가 바로 이 부분에서 중요한 역할을 해야 하는 것이다. 현재 알려진 인공지능 기술들 대부분은 인공지능 요소 기술들이다. 즉, 이 기술 하나를 제대로 안다고 해서 인공지능이 되는 것이 아니라, 인공지능을 만들기 위해서 활용해야 할 도구나 일부 부품에 해당하는 기술들이다. 이런 다양한 스펙트럼의 기술들의 장, 단점과 특성을 이해하고, 고객과 사용자가 지능을 가진 객체와 상호작용하면서 거부감없이 자연스럽고 사람에 친화적인(human-friendly) 사용자 경험과 인터페이스를 제공하면서 편리함을 제공하는 서비스나 상품이 되어야 비로소 인공지능 기술이라고 할 수 있다. 이런 인공지능 기술과 서비스, 상품이 되도록 기술 요소들을 전략적으로 선택하고 비즈니스 정보 시스템을 설계, 구축하도록 리더십을 발휘하는 것이 바로 기업의 CIO와 정보 기술 의사 결정 담당자가 인공지능 기술을 활용하기 위해 해야 할 일이다.

이런 측면에서 현재 인공지능 기술이 할 수 있는 서비스나 시스템의 지능화 수준은 우리가 기대하는 것보다 상당히 낮다고 볼 수 있다. 딥러닝 기술을 예로 들어보더라도, 현재 딥러닝 기술로 할 수 있는 많은 작업들이 우리 두뇌의 저수준(low-level)에서 본능적이고 자동화된 방식으로 일어나는 작업들인 경우가 많기 때문이다. 

정말로 지능을 가진 존재와 상호작용하는 것과 같이 느끼게끔 할, 추론(reasoning), 정보의 개념화, 지식화, 재조직화, 인과관계(causality)의 학습 및 인지, 고등 감정의 공감 및 소통, 맥락에 따른 언어의 화용(discourse) 이해, 비유적 추론을 통한 지식 확장과 같은 현재 인간만이 가지고 있다고 생각되는 고등 정신 과정까지 모델링하기에 우리가 우리의 두뇌의 작동 방식과 인지 프로세스에 대해서 모르는 것이 너무 많다. 우리가 만드는 것이 무엇인지도 모르면서 그걸 기술로 만드는 것은 불가능하기 때문에, 아직 우리 두뇌와 지능에 대해 가진 지식과 이해의 이런 많은 빈틈을 메우지 않으면 인공지능 기술은 결코 만들 수 없다.

딥러닝을 비롯한 최근 기계 학습 기술들이 4 ~ 5년 전에 비하면 비약적으로 발전한 것은 분명하다. 앞으로 사이버 물리 시스템을 이용한 지능형 서비스 비즈니스에서 볼 수 있는 인공지능 기술의 미래는 이렇게 인공지능 기술이 기계에 실제로 줄 수 있는 자율성과 지능의 수준과 사람들이 인공지능이라는 말에서 받는 인상과 느낌에서 드는 지능형 서비스와 상품 수준의 기대감 사이의 차이(gap)를 점차 줄여가는 과정이 될 것이다.

인공지능 기술은 시스템 기술이다. 이 말은 하드웨어와 소프트웨어가 적절한 수준으로 같이 발전됨과 동시에, 하드웨어, 소프트웨어가 인공지능이라는 같은 목표를 향해서 하나의 전일적인(holistic) 시스템으로 온전하게 통일되어야 기계로부터 지능이라 불릴 수 있는 것을 볼 수 있고, 이를 우리 생활에 편리하게 활용할 수 있다. 

이 얘기는 어느 한 종류의 하드웨어, 어느 한 소프트웨어 하나가 단번에 인공지능을 만들어낼 수 없음을 의미한다. 최근 가장 많이 발전한 인공지능 기술의 하나인 자연어 기반의 대화 인터페이스(conversational interface) 기술의 경우, BERT, GPT-3와 같은 대형 딥러닝 모델에 점점 더 많은 자연어 데이터를 학습시켜 실제 사람과 대화하는 것과 유사하게 출력을 내도록 고도화하고 있지만, 아직 이런 기술들이 우리 인간이 대화를 통해 서로 공감하고 알아가며 의사소통하는 과정을 온전하게 구현하지는 못하고 있다. 오로지 비슷하게 흉내를 내고 있을 뿐이다.

우리들이 언어를 사용해서 소통할 때, 단순히 언어 심볼을 조작한다고 해서 서로 소통한다는 느낌을 받지 않는다. 언어는 우리 정신의 최상위층에서 일어나는 정신과정(cognitive process)의 하나이기 때문에, 우리가 한 문장을 말하기 위해서는 그 아래에서 훨씬 더 많은 수의 다양한 정신 과정(cognitive process)이 동시에 일어나고 이런 정신 과정이 하나의 문장 속에 내포된 의미와 의도로 응축되는 과정이 필요하다. 거대한 딥러닝 모델이, 더군다나 아직 뭘 배우는지도 분명하게 알 수 없는 딥러닝 모델을, 마냥 사이즈만 키우고 데이터만 늘려서 학습 시킨다고 해서 우리와 같은 방식으로 언어를 배워 사용한다고는 볼 수 없다.

인공지능은 단순히 하나의 요소 기술로서 대변되는 문제가 아니라, 복잡하고 다양한 정신 과정을 구현하는 수학적 모델들과, 하드웨어, 소프트웨어 기술들이 적절한 아키텍처와 시스템 디자인을 통해 통합되어야 만날 수 있는 기술이다. 우리가 현재 알고 있는 다양한 인공지능 기술들이 도구가 되어, 앞으로 뇌과학과 심리학, 인지 과학에서 밝혀낼 다양한 정신 과정에 대한 지식과 이해를 기초로, 적절한 아키텍처와 구조를 가진 소프트웨어와 하드웨어 시스템이 통합된 전일적인 시스템을 만드는 방법을 찾아낼 때, 우리가 그토록 바라는 인공지능 시스템을 볼 수 있을 것이다.

이런 의미에서 사이버 물리 시스템, 그리고, 사이버 물리 시스템의 대표적인 예인 자율주행 자동차나 로봇과 같은 자율 에이전트는 인공지능 기술의 총아이며 대표적인 기술로 볼 수 있다. 필자가 빅데이터 비즈니스의 미래 지향점으로 계속 소개하고 있는 사이버 물리 시스템 기반의 지능형 서비스에서 인공지능 기술이 중요한 이유중의 하나이다. 조금 더 과장해서 얘기하면, 사이버 물리 시스템을 구성하는 모든 기술 요소들은 사이버 물리 시스템이 진정한 인공지능 시스템으로 발전, 진화하기 위해 필요한 기술 요소들이라고도 얘기할 수 있다.

지금까지 앞에서 소개한 세 가지 오해와 과장된 기대로 인해서, 최근 언론과 사람들이 인공지능 기술에 대해서 가지는 위협과 문제 의식은, 고민해야 하는 문제들인 것인 맞지만 실제 상황에 비해서 지나치게 과장되고 부풀려져 있다고 보는 것이 많다. 이런 인공지능 기술에 대한 적절치 못한 지나친 거부감과 문제의식, 또는 지나친 기대감과 맹목적인 맹신은, 인공지능 기술을 활용하는 데 걸림돌이 된다. 이에 더해서, 인공지능 기술을 사용하는 과정에서 우리 인류가 만나게 될 기술적, 윤리적, 철학적인 문제들을 엄밀하게 연구하고 해결하는 데 방해가 되고, 인공지능 기술에 대한 왜곡된 시각을 만들어 기술을 적절한 방식으로 활용하지 못하도록 하여 또 하나의 기술적 위험이 될 수 있다.
 
 

X