지난 서른다섯 번째 글부터는 빅데이터 비즈니스와 기술의 미래를 현재 기술들의 동향과 전망을 가지고 같이 엿보고 있다. 빅데이터 비즈니스와 기술의 미래로서, 사이버 물리 시스템(CPS)으로 발전해가는 미래 정보통신 기술과 지능형 서비스의 미래를 소개하였고, 앞으로의 빅데이터 비즈니스와 기술의 발전은 이 사이버 물리 시스템(CPS)으로 구현되는 다양한 지능형 서비스들을 중심으로 이루어질 것이라고 설명하였다. 이와 함께, 이 사이버 물리 시스템(CPS)의 기반이 되는 다양한 기술들의 현재와 미래, 이들의 사이버 물리 시스템과의 관련성에 대해서 살펴보고 있다. 지금까지 클라우드 컴퓨팅 기술, 5G 이동통신과 모바일 에지 컴퓨팅으로 대표되는 미래 통신 기술, 사물인터넷(IoT)과 에지 컴퓨팅 기술들이 어떻게 사이버 물리 시스템(CPS) 기반의 지능형 서비스와 관련이 있는지 같이 살펴보았다. ⓒGetty Images 인공지능 기술에 대한 우리들의 오해 (1) – 지나친 낙관론과 과대평가
이번 글부터 두, 세 편의 글에서는 사이버 물리 시스템(CPS) 기반 지능형 서비스의 가장 핵심이 될 것으로 보이는 인공지능 기술의 현재와 미래, 전망에 대해서 같이 살펴보고자 한다. 우리나라 대기업들이 앞다투어 인공지능 기술에 대한 대규모 투자 계획을 발표하고 있고, 우리나라 정부를 포함한 세계 각국 정부들도 인공지능 기술 경쟁에서 앞서 나가기 위해 다양한 계획들을 발표하고 있는 현 상황에서 과연 이런 인공지능 기술에 대한 열기가 기대하는 만큼의 물질적인 번영과 부를 가져다줄 수 있을지, 그렇다면 어느 정도로 광범위하고 다양하게 우리 사회에 영향을 끼칠지 같이 생각해보는 시간을 가지려고 한다.
2016년 1월 “알파고(AlphaGo)”가 이세돌 9단을 이긴 사건을 계기로 최근 5년간은 IT 기술 매체의 많은 지면과 영역을 인공지능 관련 기술들에 관한 내용이 채워왔다. “알파고”를 만든 구글의 “딥마인드(DeepMind)”는 여전히 수익을 내지 못하고 2019년 8월 기준으로 1조 5천억 원이 넘는 큰 부채를 안고 있는 회사임에도 불구하고 기업 가치가 엄청나게 상승했으며, “딥마인드”의 기업 가치가 앞으로도 높게 평가될 것임에 대해서는 대부분의 전문가가 부정하지 않는 것 같다.
최근 벤처 캐피털리스트들의 투자 기조가 코로나바이러스로 인한 경기 위축과 “우버(Uber)”나 “위워크(WeWork)”와 같은 주요 유니콘 기업들의 실적 부진, 도덕적 해이(Moral Hazard)로 미래 성장성보다는 현실적인 수익 전망을 중심으로 보수적으로 돌아섰다고는 하지만, 인공지능 기술에 대한 기대는 쉽게 수그러들지 않는 것 같다.
지금까지는 사이버 물리 시스템(CPS) 관련 기술들의 미래 전망에 대해서 긍정적인 측면에서 많이 다루어 왔고, 이런 긍정적인 측면을 뒷받침할 만한 근거들도 많이 소개하였다. 인공지능 기술의 현재와 미래에 대해서는 조금 다른 방식으로 접근해보려고 한다.
먼저, 현재 우리들이 가지고 있는 인공지능 기술의 기대감과 전망이 정말 현실성이 있고 적절한 것인지, 우리가 지나치게 긍정적으로 생각하고 있는 것은 아닌지, 인공지능 기술에 대해서 우리가 가지고 있는 오해와 편견에 대해 살펴보려고 한다. 인공지능 기술의 미래 가능성에 대해서 조금이나마 정확하게 살펴보기 위해서는 이런 오해와 편견을 걷어내는 것이 중요하다고 필자는 생각한다.
IT 기술 매체에서 다양한 IT 기술들의 전망에 대해서 긍정적인 측면을 부각하고 보여주는 것은 IT 기술 시장의 새로운 비즈니스가 실현될 수 있도록 투자 자금이 흘러들 수 있도록 하는 긍정적인 측면도 있지만, 새로운 기술이 수익성 있고 지속가능한 비즈니스로 실현되기 위해 필요한 다양한 측면을 있는 그대로 보지 못하게 하고 지나치게 기술적인 측면만 보게 하는 부작용도 있다. IT 기술 매체에서 다뤄지고 있는 인공지능 기술은 이 양극단이 다른 어떤 IT 기술보다도 극단적으로 나타나고 있어서 인공지능 기술을 이용한 비즈니스를 기획, 설계하는 사람들이 주의해서 이들 정보를 보는 것이 좋다.
첫 번째로, 인공지능 기술에 대한 가장 큰 오해는 현재의 인공지능 기술이 사람과 같은 수준의 자율성과 지능을 가진 수준을 가진 기술로 곧 발전할 수 있다고 하는 가정에 근거하여 나오는 많은 추측과 지나치게 긍정적인 전망들이다.
인공지능 기술에 대한 많은 오해와 과장된 기대감을 불러일으키는 가장 큰 원인은 바로 “인공지능(Artificial Intelligence)”라는 말과 관련이 있다. 인공지능 분야는 최근 IT 매체에서 주목받는 어느 기술 영역보다도 가장 광범위하고 다양한 기술 영역을 다루는 분야임에도, 무엇이든 할 수 있는 요술 방망이 같은 단일 기술의 인상을 준다. 기술의 성숙도 측면에서도 다른 기술들에 비해 많이 부족하지만 마치 지금 당장이라도 쓰면 금맥을 발견할 수 있게 해주는 기술인 것처럼 과장되는 측면이 없지 않다.
인간의 “지능(Intelligence)”이라는 말 안에 포함된 심리학적 현상들이나 개념은 다양하고 범위가 넓다. 이런 “지능”을 인공적으로 만들 수 있게 하는 기술이라는 의미를 담고 있는 “인공지능”라는 말 한 단어로 “인공지능” 기술을 써서 ~한 제품을 만들었다고 얘기하면, 어떤 상품에 벌써 사람과 같은 “지능”이 들어간 것 같은 느낌이 든다.
이런 “느낌”이 요즘 “4차산업혁명”이라는 말과 “인공지능”이라는 말을 접했을 때 대부분의 사람들과 기사를 쓰는 언론인들이 느끼는 느낌이다. “인공지능”이라는 말은 과학기술 용어가 어떻게 남용되고 있는지 가장 잘 보여주는 사례가 아닌가 한다.
문제는 이 “느낌”이 실제 “인공지능”을 전문적으로 연구하는 과학자, 공학자들과 관련된 분야에서 일하는 전문가들이 쓰는 맥락과 너무 다르다는 것이다. 물론, “인공지능”이라는 학문 분야의 궁극적인 목적은 사람과 같이 생각하고 행동하는 컴퓨터와 기계를 만드는 것이다. 그렇지만, 아직 우리는 “인공지능”이라는 학문을 통해 그런 목적을 달성하지 못했다.
심지어는 뭘 만들어야 우리 자신과 같은 지능을 가진 컴퓨터나 기계를 만들 수 있는지도 잘 모를 뿐만 아니라, 우리가 가진 “지능”의 실체에 대해서도 아주 일부분만 이해하고 있을 뿐, 얼마나 이해하고 있는지도 잘 모르고 있다.
그뿐만 아니라, 우리가 만든 “인공지능” 시스템이 사람과 같은 수준의 지능을 가지고 있는지, 이를 어떻게 알 수 있는지 이에 대한 답도 완전하게 얻지 못했다. 물론 원론적인 수준에서는, 앨런 튜링에 의해 제안된 “튜링 테스트(Turing Test)”와 컴퓨터 과학자인 알론조 처치(Alonso Church)가 제안한 “중국인 방 테스트(Chinese Room Test)”와 같은 방법이 있지만, 매우 추상적이고 원론적인 수준의 테스트이다. 실제 컴퓨터 시스템에 이 “튜링 테스트”와 “중국인 방 테스트”를 적용하기 위해서 아직 기술적으로 해결되지 않은 부분이 많다.
또한 좁게는 사람의 “지능(Intelligence)”, 좀 더 포괄적으로는 인간의 “마음(Mind)”을 이해하기 위해 연구하는 학문은 컴퓨터 과학만이 아니다. 인간의 “마음”을 이해하기 위해 연구하는 과학자, 공학자들은 수학, 물리학, 심리학, 뇌과학과 생물학, 철학, 인지과학, 컴퓨터 과학, 뇌공학 등 다양한 학분 분야에 걸쳐 있고, 예전에는 이렇게 다양한 학문 분야를 아울러 인간의 “마음”이 무엇인가에 대한 다양한 가설과 해답을 추구했지만, 요즘은 이들 학문 분야가 서로 협력하여 인간의 “마음”에 대한 퍼즐을 같이 맞추어 가는 상황이다.
우리가 소위 “인공지능” 기술에 대해서 현재 가져야 하는 기대감과 희망을 당분간은 대폭 낮춰야 하는 이유가 바로 여기에 있다. 우리가 만드는 인간의 “마음”의 실체가 무엇인지도 모르는데, 어떻게 만들 수 있단 말인가? 설사 튜링 테스트를 통과한 “인공지능”이 있다고 해도, 이런 “인공지능”이 계산을 통해 내린 결론과 행동을 우리가 과연 이해할 수 있을 것인가? 우리가 이해하지 못하는 대상이 사람과 같이 말하고 행동한다고 해서 사람과 같은 지능적 존재라고 단정할 수 있을 것인가?
“인공지능” 기술은 기술적으로도 아직 성숙되지 않았지만, “인공지능” 기술이 실용화되었을 때 우리가 이런 존재와 어떻게 어울려 살아갈 수 있을지, 이런 존재와 함께했을 때 나타날 수 있는 좋은 점과 부작용에 대해서도 많은 논란과 연구가 이어지는 중이다.
“인공지능” 기술이 사람과 같은 수준의 기술로 발전했을 때에만 이런 문제가 부각되는 것이 아니라, 사실은 그 전에 사람과 같은 수준의 지능은 아니지만 특정한 영역의 작업에서 높은 지능을 가진 지능형 기계와 같은 불완전한 “인공지능” 기술이 활용되는 시기에 생겨나는 문제가 더 많고 복잡하다.
“인공지능”과 관련된 기술적, 철학적인 문제는 이 지면에서 다루기에는 너무 광범위하고 복잡해서 깊게 다루지는 않겠다. 다만, 필자가 여기서 독자분들에게 전달하고자 하는 것은 “인공지능”이란 말에 대한 오해를 접고 좀 더 실용적이고 현실적으로 이 기술을 어떻게 활용할 것인지 생각해야 한다는 것이다.
“인공지능”이란 말을 앞세워서 새로운 비즈니스를 만들고 조직에서 승진하고 승승장구하고 싶은 분들이 많겠지만, “인공지능” 기술이 아직 성숙된 기술이 아니고, 아직도 연구를 통해 밝혀내고 이해해야 할 영역이 많은 불완전한 기술이라는 점을 이해해야 한다. 실제 실무에 적용해서 가치 있는 상품을 만들어낼 수 있을 정도로 “인공지능” 기술을 잘 활용하기 위해서는 활용하려는 특정한 “인공지능” 기술이 어떤 한계를 가지고 있고, 어떤 문제를 가장 잘 해결할 수 있는지 비판적인 지식과 통찰을 가지고 있어야 한다.
“인공지능”이라는 말 아래에는 다양한 영역의 문제를 해결하는 다양한 기술이 포함되어 있다. 인간의 “마음”이 보여주는 특성도 그만큼 다양하기 때문이다. 최근 인기를 끌고 있는 “기계 학습(Machine Learning)” 기술도 “인공지능(Artificial Intelligence)”이라는 말만큼이나 많은 오해와 편견을 불러일으키는 말 중의 하나다. 우리의 “마음”이 보여주는 중요한 특징인 “학습(Learning)”하는 능력은 우리의 “마음”이 가진 중요한 능력 중의 하나이다. 하지만, 학습하는 능력만 갖춘다고 해서 우리가 가진 “마음”을 똑같이 만들 수 있는 것일까? 그렇지 않다는 것이다.
“인공지능”과 심리학, 인지과학 분야에서 다양한 “기계 학습” 모델을 통해 컴퓨터는 쉽게 해결하지 못하지만 인간의 “마음”은 쉽게 해결하는 다양한 문제들을 모델링하고 이를 컴퓨터가 풀 수 있도록 하는 방법들을 밝혀내기는 했지만, 이런 모델들은 이런 각각의 문제에 대해서만 인간의 “마음”와 비슷하게 동작하는 것이지, 이런 “기계 학습” 모델 하나만 가지고 우리의 “마음”을 동일하게 만들 수 있는 것은 아니다. “학습”할 수 있는 능력은 우리의 “마음”이 가진 다양한 특성 중의 하나이지, 이 특성 하나만 가지고 우리의 “마음”이 완성되는 것은 아니라는 것을 이해할 필요가 있다.
이렇게 “인공지능”이 목표로 삼고 있는 우리의 “마음”을 컴퓨터가 우리와 같은 수준으로 흉내 내고 동작하기 위해서는 우리 “마음”의 다양한 특성들과 역량들이 컴퓨터 소프트웨어화되어 완전하게(holistically) 통합(integration)되고, 이렇게 통합된 인공지능이 “마음”의 통합된 전체와 같은 특성과 능력을 보일 수 있도록 하나의 전체, 완전체로서 동작할 때에야만 우리가 현재 생각하는 “인공지능(Artificial Intelligence)”이라는 말에 걸맞은 기대와 문제점을 드러내게 될 것이다.
인공지능 기술에 대한 우리들의 오해 (2) – 인공지능 본연의 기술과 도구 기술의 혼동
두 번째로, 인공지능을 만드는 데 쓰는 도구가 되는 기술과 인공지능 기술을 혼동함으로써 오는 혼란과 오해이다. 인공지능을 만드는 데 쓰는 도구가 되는 기술을 잘 알고 쓴다고 해서 인공지능 기술을 잘 알고 만들 수 있는 것은 아님에도 불구하고, 최근 인공지능 기술을 대표하는 기술로 텐서플로우(TensorFlow)와 같은 소프트웨어 도구가 소개되는 것은 오해와 혼란의 여지가 있다.
현재 가장 인기 있는 인공지능 기술인 “딥러닝(Deep Learning)”은 사실 전문가들 입장에서는 일종의 범용 근사 계산기(universal approximator)에 가까운 기술이다. 보통 일반 매체에서 딥러닝을 이용한 인공지능 기술을 소개하는 경우 모델을 디자인하고 검증하는 수고에 대해서는 잘 언급하지 않고 데이터만 있으면 딥러닝 모델이 학습할 대상을 알아서 학습한다는 식으로 표현하는 경우가 많아서 딥러닝 기술이 만능인 것 같은 인상을 줄 때가 많다.
최근 인공지능 붐이 딥러닝에서 시작된 것을 생각하면 현재 일반 대중들, 심지어는 IT 분야에서 일하는 분들까지도 이렇게 왜곡되게 표현한 딥러닝 기술로 대표되는 인공지능 기술에 대한 보도나 기사들 때문에 데이터만 모아주면 딥러닝 모델이 알아서 원하는 작업을 해주는 것 같은 인상을 받는 경우가 많은 것 같다.
딥러닝 모델을 활용하는 기계 학습 엔지니어들의 입장에서는 딥러닝만큼 다루기 쉽지 않은 기계 학습 기술이 없다. 우선 보통 “통계적 학습 이론(statistical learning theory)”에 따른 기계 학습 모델들에 비해서 학습할 파라미터의 수가 훨씬 많기 때문에 더 많은 데이터가 필요할 뿐만 아니라, 확률 모델로 어느 정도 분명한 해석이 가능한 다른 기계 학습 모델들에 비해서 딥러닝 모델은 입력과 출력 노드 뉴런들의 값을 제외하고는 모델의 대부분을 구성하는 가중치 텐서(weight tensor)와 숨겨진 노드(hidden node)들이 뭘 나타내고 배우고 있는지 해석하기가 쉽지 않다.
딥러닝 모델을 우리가 원하는 대로 동작시키기 위해서는 입력 노드에 어떤 자질(feature)들로 데이터를 표현할지도 주의 깊게 설계해야 하는데, 이 과정이 보통 그렇게 쉽지 않은 경우가 많다.
컨볼루션 신경망(Convolution Neural Network; CNN)처럼 영상 데이터에 주로 쓰이는 딥러닝 모델은 그나마 조금 나은 편이지만, 자동화된 제어나 예측 분석 등의 특수한 응용 분야에 적용되는 딥러닝 모델은 입력 노드가 표현하는 “상태 공간(configuration space)”을 기계 학습 엔지니어가 설계하는 방식에 따라서 학습 성능과 모델의 정확도, 유용성이 천차만별로 달라지는 경우가 많다. 이런 이유로 사실 데이터만 있으면 알아서 배운다는 말이 무색할 정도로 딥러닝 모델을 만드는 작업은 많은 시행착오를 동반하는 경우가 많다.
그나마 요즘은 텐서플로우와 파이토치(PyTorch)와 같이 딥러닝 모델 개발을 쉽고 빠르게 해줄 수 있는 기계 학습 소프트웨어 프레임워크 기술이 크게 발전해서 딥러닝을 사용하는 기계 학습, 인공지능 기술 엔지니어와 연구자들의 이런 고충과 수고를 많이 덜어주고 있다.
그렇지만, 딥러닝 모델이 가진 근본적인 한계를 이런 기계 학습 소프트웨어 프레임워크 기술이 모두 해결해주는 것은 아니기 때문에 여전히 딥러닝 모델을 현장에서 적용하는 것은 말처럼 쉽지 않은 일이다. 사실 딥러닝 기술의 이런 한계 때문에 오히려 텐서플로우와 같은 소프트웨어 프레임워크 기술의 발전이 더욱 필요하기도 하고, 이런 이유로 텐서플로우와 같은 기술이 중요한 인공지능 개발을 위한 소프트웨어 기술로 각광받고 있기도 하다.
텐서플로우나 파이토치 자체는 인공지능 기술이 아니라는 것을 독자 여러분들께서는 다시 환기해둘 필요가 있다. 많은 IT 전문가들도 잘 아시겠지만, 텐서플로우와 파이토치는 딥러닝 같은 기계 학습 모델을 잘 만들 수 있도록 도와주는 소프트웨어 도구다.
이런 기계 학습 모델을 쉽게 프로그래밍할 수 있도록 돕는 소프트웨어 도구를 이용해서 기계 학습 전문 소프트웨어 엔지니어들이 목적에 맞는 딥러닝 모델과 기계 학습 모델을 설계하고 테스트해서 실제 현장의 응용 분야에 쓰일 수 있도록 배치해야 비로소 우리가 체감하는 인공지능 기능을 가진 서비스나 제품으로 기능을 하는 것이다.
인공지능 기술과 이런 인공지능을 가능하게 하는 개발 도구는 분명히 구분해서 소개하고 다뤄져야 함에도 인공지능 기술을 만드는 것을 돕는 개발 도구가 인공지능 기술의 대표적인 기술인 것 같은 인상을 주게끔 많은 매체에서 소개하고 있어 혼란을 주고 있는 것 같다. 독자분들은 이 점을 분명히 구분해서 받아들여야 인공지능 기술에 대한 혼란을 줄일 수 있을 것이다.
이렇게 인공지능 기술과 인공지능을 만드는 데 쓰는 도구가 되는 기술을 인공지능 기술로 혼동함으로써 오는 혼란은 앞서 설명한 첫 번째 오해와 관련이 있다. 이 점과 관련해서 세 번째로 짚고 넘어가야 할 오해와 편견이 있다.
인공지능 기술에 대한 우리들의 오해 (3) – 특정 인공지능 요소, 도구 기술에 대한 지나친 맹신
세 번째로 우리가 생각해봐야 할 오해와 편견은, 소위 텐서플로우(TensorFlow)와 같은 인공지능 기술을 익히고 잘 활용하면 금방이라도 사람들이 실직할 수 있고 사회적으로 문제가 되는 자동화 기술이나, 곧 대박을 낼 수 있는 혁신적인 수준의 인공지능을 만들 수 있을 거라는 생각이다.
현재 인공지능 기술로 불리는 기술들을 써서 정말로 우리와 같은 지능을 가진 인공지능을 만들 수 있을지 없을지 아직 알 수 없고, 만들 수 있다고 해도 아주 일부분의 특정한 작업만 잘 할 수 있는 인공지능을 만들 수 있을 뿐이다.
우리 현재 인공지능 기술로 불리는 많은 기술들이 다른 과학, 공학 분야와 달리 아직 검증되지 않은 가설을 컴퓨터를 이용한 모델로 만들어 놓은 것에 불과한 것이 많고, 이런 모델로 만든 컴퓨터와 자율형 기계의 지능적인 행동이 정말로 우리가 보여주는 행동과 지능에 비교해서 같은 것인지 알 수 없는 경우가 대부분이다.
현재 알려진 인공지능 기술을 활용함에 있어서 세 번째 오해를 이해하는 것은 정말 중요하다. 그리고, 이 세 번째 오해는 앞의 첫 번째 오해와 두 번째 오해 때문에 결국 나타나는 현상이다.
진짜 인공지능을 만드는 것과 지금까지 연구된 인공지능 분야의 지식과 기술을 응용해서 산업현장과 비즈니스에 응용해서 자동화율을 높이고 프로세스의 효율과 스피드를 개선하는 일의 차이를 분명하게 구분하여 생각할 필요가 있다. 인공지능을 만들기 위해 우리가 직면한 도전과 한계에 대해서 인공지능 전문가뿐만 아니라 인공지능을 활용하는 보통의 IT 전문가들도 어느 정도 인식할 필요가 있다.
현재 우리가 인공지능 기술이라고 사용하고 있는 알고리즘이나 방법론들은 우리 인간의 마음(Mind)이 수행하는 작업을 흉내 내고 설명하기 위한 모델로부터 시작한 것들이라는 걸 우선 이해할 필요가 있다. 이 모델들 대부분이 인간의 마음과 두뇌가 수행하는 아주 특정한 측면을 설명하거나 이해하기 위해 만든 수학적인 모델들이고, 이 특정한 측면을 벗어난 특징이나 인지 영역으로 들어가면 이런 모델들이 쓸모없게 되거나 다른 모델과 상충하는 결과를 보여주는 것이 많다는 것을 생각해야 한다.
이런 점을 가장 잘 보여주는 인공지능 기술 중의 하나가 바로 요즘 인기를 끌고 있는 딥러닝이다. 딥러닝은 사실 인간 두뇌의 해부학적인 지식을 심리학의 행동 학습을 설명하는 이론과 결부시켜 만든 수학적 모델이다. 이런 측면을 고려하지 않고 딥러닝의 수학적, 이론적인 측면만을 공부한 컴퓨터 과학자, 또는 수리통계학자들은 딥러닝이 알고 보니 그냥 통계 이론에 불과하다고 생각한다.
딥러닝을 비롯한 기계 학습 알고리즘과 기술들을 개발하기 위해 사용하는 이론들은 통계학의 용어와 개념을 빌어 디자인되고 표현된 것이 많다. 이것을 “통계적 기계 학습 이론(statistical machine learning theory)”이라고 하는데, 기계 학습 이론을 심리학, 인지과학, 신경과학의 통합적인 맥락에서 배우지 않고 통계적 기계 학습 이론을 빌어 표현된 기계 학습 알고리즘만 배운 컴퓨터 과학자나 공학자, 소프트웨어 엔지니어들, 통계학자들은 기계 학습이 알고 보니 그냥 통계 이론에 불과하다고 느낄 수 있다.
이렇게 그저 통계 이론, 알고리즘의 하나 정도로 여겨지는 인공지능 기술의 본질에 대해서 잠시 생각해볼 수 있는 시간을 가지기 위해 짧게 딥러닝 기술의 역사를 살펴보도록 하자.
딥러닝의 시작은 “맥컬로크-피츠의 신경 세포 발화 모델(the McCulloch-Pits model)”이다. 신경 세포가 전기적인 발화(firing)를 하는 것을 여러 신경 세포로부터의 발화(firing)가, 신경 세포 간 연결 방식인 시냅스를 통해 연결되어 가중 합산(weight summation)되면서 특정한 문턱값(threshold)을 넘어서면 0,1의 전기적인 상태를 표현하는 디지털 신호와 같은 발화를 한다는 것이 맥컬로크-피츠의 신경 세포 발화 모델이다.
이 맥컬로크-피츠의 신경 세포 발화 모델을 인공지능에 처음으로 응용한 것이 인공지능의 대부인 마빈 민스키(Marvin Minsky) 교수와 맞대결을 펼쳐 유명해진 프랭크 로젠블라트(Frank Rosenblatt) 박사이다. 프랭크 로젠블라트 박사가 제안한 “퍼셉트론(perceptron)”은 현대 딥러닝 및 신경망(neural network) 이론의 기초가 되는 중요한 수학적인 모델이다.
이 “퍼셉트론”은 인간 두뇌의 심리학적, 신경 생리학적 지식을 기초로 만든 수학적인 모델이 우리 두뇌의 정보 처리 방식을 이해하는 데 중요하다는 것을 보여준 사건으로, 뇌과학 및 신경과학, 심리학, 인지과학의 연구 성과를 인공지능 연구에 활용하게 하는 계기가 된다.
“맥컬로크-피츠의 신경 세포 발화 모델”과 함께 딥러닝 이론의 기반이 된 또 하나의 심리학 학습 이론은 캐나다의 심리학자인 도날드 올딩 헵(Donald Olding Hebb)이 우리 두뇌의 학습 원리로 제안한 “헵 학습 이론(Hebbian Learning Theory)”이다.
1949년 도날드 올딩 헵(Donald Olding Hebb)은 심리학자로서 명성을 높이게 된 저서인 “행동의 조직(The Organization of Behavior)”라는 책에서, 신경생리학적인 사실을 바탕으로 우리의 두뇌와 신경 조직은 자주 받아들이고 사용하는 신경 네트워크의 시냅스는 그 연결이 장기적으로 강화되어 더 빠르고 정확하게 자극에 반응할 수 있도록 신경계의 시냅스가 변화한다는 “헵 학습 이론”을 제안하게 된다.
이 “헵 학습 이론”에서 표현하고자 하는 시냅스(synapse) 연결의 강도는 신경망, 즉 딥러닝 모델에서 가중치 행렬(weight matrix)의 값으로 표현되는데, 이 가중치 행렬의 한 값이 바로 해당 가중치 행렬 값으로 표현되는 시냅스를 통한 두 뉴런 간 연결의 정도를 표현한다. 딥러닝의 학습 과정은 입력과 출력을 가장 잘 맞출 수 있도록 신경망의 가중치 행렬과 편향값(bias)이 신경망이 추정하려고 하는 확률 모델에 가장 근접하도록 최적화하는 과정으로 수학적으로 표현된다.
특정한 입력, 출력 뉴런 사이의 연결이 강화되어야 모델을 더 잘 추정하게 된다면 해당 시냅스를 표현하는 가중치 행렬 값이 커지게 되고, 특정한 입력, 출력 뉴런 사이의 연결이 약화되거나 억제(inhibition)되어야 신경망이 추정하고자 하는 모델을 더 잘 추정하게 된다면 해당 가중치 행렬의 값을 줄이는 방식으로 학습이 이루어지게 된다.
이렇게 우리 두뇌의 작동을 신경생리학, 생물심리학의 연구 성과에 기초해서 수학적으로 표현한 “맥컬로크-피츠의 신경 세포 발화 모델(the McCulloch-Pits model)”, “헵 학습 이론(Hebbian Learning Theory)”, 그리고 이를 이용해 인공지능 문제 해결에 응용한 “퍼셉트론(perceptron)” 이론의 영향을 받아 생물물리학자인 존 홉필드(John Hopfield)가 “홉필드 네트워크(the Hopfield neural network)”라는 재귀 신경망(recurrent neural network) 모델로 연상 기억(associative memory)과 망각(forgetting)을 설명하는 이론을 내면서 딥러닝과 신경망 모델이 다시 주목을 받기 시작했다.
이렇게 신경망 모델이 다시 주목을 받기 시작하면서, 신경망 모델의 학습을 위한 알고리즘으로 당시 카네기 멜런 대학에 재직 중이던 데이비드 러멜하트(David E. Rumelhart), 제프리 힌튼(Geoffrey Hinton), 로널드 윌리엄스(Ronald J. Williams)가 “역전파(back-propagation) 알고리즘”을 제안하면서 다층 신경망의 학습 방법에 큰 발전의 계기가 마련되게 된다.
사실 이때까지만 해도 신경망 알고리즘은 통계적 기계 학습 이론과 크게 관련이 없고, 우리 두뇌의 신경망이 어떻게 학습하는지를 표현하고 연구하기 위한 수학적인 모델에 불과했다. 하지만, 신경망을 학습시키는 알고리즘으로 “역전파(back-propagation) 알고리즘”이 제안되고, 이 “역전파 알고리즘”이 일반적인 신경망을 학습시키는 방법으로 경사 하강(gradient-descent) 알고리즘 방식의 최적화 알고리즘과 연관되어 발전하면서, 이 경사 하강 방식의 최적화 알고리즘을 유도하고 이해하기 위한 이론적인 틀로 통계 이론이 활용되기 시작했다.
이렇게 “퍼셉트론(perceptron)”으로 시작된 “다층 전향 신경망(multi-layer feed-forward neural network) 구조”, 그리고 이 “다층 전향 신경망(multi-layer feed-forward neural network)” 구조를 학습시키기 위한 방법으로 제안된 “역전파(back-propagation) 알고리즘”, 그리고 “다층 전향 신경망(multi-layer feed-forward neural network)”을 학습시키는 방법으로써 “역전파(back-propagation) 알고리즘”과 이를 다시 가중치 행렬(weight matrix)와 편향값(bias)를 파라미터로 하는 확률 분포(probability distribution)를 찾는 “확률 분포 추정(probability distribution estimation)” 문제로 표현한 통계적 기계 학습 이론의 도입이 오늘날 딥러닝 기술의 틀을 만든 것이다.
최신의 딥러닝 기술을 잘 아는 독자분들께서는 “다층 전향 신경망(multi-layer feed-forward neural network)” 말고도 “장단기 기억 재귀 신경망(Long-Short Term Memory Recurrent Neural Network)”, “심층 생성 모델(Deep Generative Model)”, “심층 강화 학습(Deep Reinforcement Learning)”, “심층 베이지안 학습 모델(Deep Bayesian Learning Model)”등 다양한 딥러닝 모델이 있다고 말씀하시는 분들도 있을 것이고, “역전파(back-propagation) 알고리즘”이 아닌 방법을 사용하는 학습 알고리즘도 많다고 반박하시는 분들도 있을 것이다.
필자도 이런 사실을 잘 알고 있다. 다만 오늘날의 딥러닝 기술을 만든 큰 흐름과 대부분의 딥러닝 모델의 구조가 다층의 “가중치 매트릭스(weight matrix)”와 “편향값(bias)” 파라미터로 표현되는 확률 분포를 데이터로부터 추정하는 문제로 표현되어 있다는 공통의 특징을 설명하려고 한 것이며, 현대의 딥러닝 모델은 이와 같이 우리 두뇌의 정보 처리 방법을 통계 이론의 언어를 빌려 표현한 것이라는 것을 설명하려고 한 것이다.
현재 딥러닝 기술이라고 부르는 기술은 사실 우리 두뇌의 정보 처리 과정을 이해하려고 노력하는 과정에서 만들어진 수학적인 모델일 뿐이며, 이 수학적인 모델은 우리 두뇌의 정보처리 과정의 아주 일부분만을 설명하고 표현할 수 있다. 이 점이 인공지능 기술의 미래를 이해하기 위해 여러분들이 꼭 이해해야 하는 점이다.
인공지능 기술의 스펙트럼이 워낙 넓어 모든 세부 기술에 대해서 장, 단점과 한계를 분석하고 그 미래의 효용에 대해서 소개하기 위해서는 인공지능 기술에 대한 개론서 수준의 책을 한 권 써야 할 것이기에, 이 글과 앞으로 두세 편의 글에서 다룰 인공지능 기술은 딥러닝을 비롯한 최근 이슈가 된 몇 가지 기술로 한정해서 살펴보도록 한다.
다시 앞서 언급한 인공지능 기술의 세 번째 오해에 대한 논의로 돌아가도록 하자. 정말 텐서플로우(TensorFlow) 및 파이토치(PyTorch) 기술을 완벽하게 마스터한다고 해서 인공지능 기술을 금방 만들 수 있고, 기업의 비즈니스 모델이 획기적으로 변화될까?
정말로 텐서플로우 및 파이토치 기술을 잘 활용하고 요즘 유행하는 AutoML과 같은 딥러닝 모델 자동 탐색 기술, 기계 학습 파이프라인 및 자동화 인프라 구축과 같은 인프라를 구축한다고 해서 기업의 비즈니스 모델을 획기적으로 개선할 무언가가 나올 수 있을까?
세 번째 오해는 앞서 소개한 두 번째 오해와 아주 밀접한 관련이 있다. 텐서플로우, 파이토치, AutoML등의 딥러닝 모델 자동 탐색 기술, 기계 학습 파이프라인 및 자동화 인프라 구축, 주요 인공지능 학술회의에서 쏟아져 나오는 다양한 최신 딥러닝 모델 및 새로운 기계 학습 알고리즘들 모두를 알면 정말 우리가 원하는 자동화된 비즈니스 플랫폼을 당장 만들 수 있을까?
위에서 언급한 기술들은 인공지능 기술을 만드는 도구가 되는 기술(텐서플로우(TensorFlow), 파이토치(PyTorch), AutoML, 에어플로우(AirFlow), 쿠브플로우(KubeFlow), 확장 텐서플로우(TensorFlow Extended)를 이용한 기계 학습 파이프라인 및 자동화 기술 등)이거나, 인공지능 기술의 전체 스펙트럼에서 아주 일부, 작은 일부가 되는 기술(CNN, RNN등의 딥러닝 모델 요소, BERT, GPT-3등의 대형 자연어 처리 모델)들이다. 이런 기술들의 장, 단점을 파악하고, 이런 기술들을 이용해 고객과 사용자가 정말 사람과 같은 지능을 가진 기계와 상호 작용하는 것과 같은 편리한 서비스가 되어야 비로소 인공지능 기술이 되는 것이다.
기업의 CIO와 정보 기술 의사 결정 담당자가 바로 이 부분에서 중요한 역할을 해야 하는 것이다. 현재 알려진 인공지능 기술들 대부분은 인공지능 요소 기술들이다. 즉, 이 기술 하나를 제대로 안다고 해서 인공지능이 되는 것이 아니라, 인공지능을 만들기 위해서 활용해야 할 도구나 일부 부품에 해당하는 기술들이다.
이런 다양한 스펙트럼의 기술들의 장, 단점과 특성을 이해하고, 고객과 사용자가 지능을 가진 객체와 상호작용하면서 거부감없이 자연스럽고 사람에 친화적인(human-friendly) 사용자 경험과 인터페이스를 제공하면서 편리함을 제공하는 서비스나 상품이 되어야 비로소 인공지능 기술이라고 할 수 있다. 이런 인공지능 기술과 서비스, 상품이 되도록 기술 요소들을 전략적으로 선택하고 비즈니스 정보 시스템을 설계, 구축하도록 리더십을 발휘하는 것이 바로 기업의 CIO와 정보 기술 의사 결정 담당자가 인공지능 기술을 활용하기 위해 해야 할 일이다.
이런 측면에서 현재 인공지능 기술이 할 수 있는 서비스나 시스템의 지능화 수준은 우리가 기대하는 것보다 상당히 낮다고 볼 수 있다. 딥러닝 기술을 예로 들어보더라도, 현재 딥러닝 기술로 할 수 있는 많은 작업들이 우리 두뇌의 저수준(low-level)에서 본능적이고 자동화된 방식으로 일어나는 작업들인 경우가 많기 때문이다.
정말로 지능을 가진 존재와 상호작용하는 것과 같이 느끼게끔 할, 추론(reasoning), 정보의 개념화, 지식화, 재조직화, 인과관계(causality)의 학습 및 인지, 고등 감정의 공감 및 소통, 맥락에 따른 언어의 화용(discourse) 이해, 비유적 추론을 통한 지식 확장과 같은 현재 인간만이 가지고 있다고 생각되는 고등 정신 과정까지 모델링하기에 우리가 우리의 두뇌의 작동 방식과 인지 프로세스에 대해서 모르는 것이 너무 많다. 우리가 만드는 것이 무엇인지도 모르면서 그걸 기술로 만드는 것은 불가능하기 때문에, 아직 우리 두뇌와 지능에 대해 가진 지식과 이해의 이런 많은 빈틈을 메우지 않으면 인공지능 기술은 결코 만들 수 없다.
딥러닝을 비롯한 최근 기계 학습 기술들이 4 ~ 5년 전에 비하면 비약적으로 발전한 것은 분명하다. 앞으로 사이버 물리 시스템을 이용한 지능형 서비스 비즈니스에서 볼 수 있는 인공지능 기술의 미래는 이렇게 인공지능 기술이 기계에 실제로 줄 수 있는 자율성과 지능의 수준과 사람들이 인공지능이라는 말에서 받는 인상과 느낌에서 드는 지능형 서비스와 상품 수준의 기대감 사이의 차이(gap)를 점차 줄여가는 과정이 될 것이다.
인공지능 기술은 시스템 기술이다. 이 말은 하드웨어와 소프트웨어가 적절한 수준으로 같이 발전됨과 동시에, 하드웨어, 소프트웨어가 인공지능이라는 같은 목표를 향해서 하나의 전일적인(holistic) 시스템으로 온전하게 통일되어야 기계로부터 지능이라 불릴 수 있는 것을 볼 수 있고, 이를 우리 생활에 편리하게 활용할 수 있다.
이 얘기는 어느 한 종류의 하드웨어, 어느 한 소프트웨어 하나가 단번에 인공지능을 만들어낼 수 없음을 의미한다. 최근 가장 많이 발전한 인공지능 기술의 하나인 자연어 기반의 대화 인터페이스(conversational interface) 기술의 경우, BERT, GPT-3와 같은 대형 딥러닝 모델에 점점 더 많은 자연어 데이터를 학습시켜 실제 사람과 대화하는 것과 유사하게 출력을 내도록 고도화하고 있지만, 아직 이런 기술들이 우리 인간이 대화를 통해 서로 공감하고 알아가며 의사소통하는 과정을 온전하게 구현하지는 못하고 있다. 오로지 비슷하게 흉내를 내고 있을 뿐이다.
우리들이 언어를 사용해서 소통할 때, 단순히 언어 심볼을 조작한다고 해서 서로 소통한다는 느낌을 받지 않는다. 언어는 우리 정신의 최상위층에서 일어나는 정신과정(cognitive process)의 하나이기 때문에, 우리가 한 문장을 말하기 위해서는 그 아래에서 훨씬 더 많은 수의 다양한 정신 과정(cognitive process)이 동시에 일어나고 이런 정신 과정이 하나의 문장 속에 내포된 의미와 의도로 응축되는 과정이 필요하다.
거대한 딥러닝 모델이, 더군다나 아직 뭘 배우는지도 분명하게 알 수 없는 딥러닝 모델을, 마냥 사이즈만 키우고 데이터만 늘려서 학습 시킨다고 해서 우리와 같은 방식으로 언어를 배워 사용한다고는 볼 수 없다.
인공지능은 단순히 하나의 요소 기술로서 대변되는 문제가 아니라, 복잡하고 다양한 정신 과정을 구현하는 수학적 모델들과, 하드웨어, 소프트웨어 기술들이 적절한 아키텍처와 시스템 디자인을 통해 통합되어야 만날 수 있는 기술이다.
우리가 현재 알고 있는 다양한 인공지능 기술들이 도구가 되어, 앞으로 뇌과학과 심리학, 인지 과학에서 밝혀낼 다양한 정신 과정에 대한 지식과 이해를 기초로, 적절한 아키텍처와 구조를 가진 소프트웨어와 하드웨어 시스템이 통합된 전일적인 시스템을 만드는 방법을 찾아낼 때, 우리가 그토록 바라는 인공지능 시스템을 볼 수 있을 것이다.
이런 의미에서 사이버 물리 시스템, 그리고, 사이버 물리 시스템의 대표적인 예인 자율주행 자동차나 로봇과 같은 자율 에이전트는 인공지능 기술의 총아이며 대표적인 기술로 볼 수 있다. 필자가 빅데이터 비즈니스의 미래 지향점으로 계속 소개하고 있는 사이버 물리 시스템 기반의 지능형 서비스에서 인공지능 기술이 중요한 이유중의 하나다.
조금 더 과장해서 얘기하면, 사이버 물리 시스템을 구성하는 모든 기술 요소들은 사이버 물리 시스템이 진정한 인공지능 시스템으로 발전, 진화하기 위해 필요한 기술 요소들이라고도 얘기할 수 있다.
지금까지 앞에서 소개한 세 가지 오해와 과장된 기대로 인해서, 최근 언론과 사람들이 인공지능 기술에 대해서 가지는 위협과 문제 의식은, 고민해야 하는 문제들인 것인 맞지만 실제 상황에 비해서 지나치게 과장되고 부풀려져 있다고 보는 것이 많다.
이런 인공지능 기술에 대한 적절치 못한 지나친 거부감과 문제의식, 또는 지나친 기대감과 맹목적인 맹신은, 인공지능 기술을 활용하는 데 걸림돌이 된다. 이에 더해서, 인공지능 기술을 사용하는 과정에서 우리 인류가 만나게 될 기술적, 윤리적, 철학적인 문제들을 엄밀하게 연구하고 해결하는 데 방해가 되고, 인공지능 기술에 대한 왜곡된 시각을 만들어 기술을 적절한 방식으로 활용하지 못하도록 하여 또 하나의 기술적 위험이 될 수 있다.
경기 침체기에도 CIO는 견고한 운영을 유지해야 합니다. 이를 위해서는 엣지 지원 솔루션이 도움이 될 수 있습니다.
세계 경제는 불확실성의 한 가운데 놓여있고, IT 산업도 다른 모든 산업들과 마찬가지로 역풍을 맞고 있습니다. 실제로 최근 Gartner는 2023년에 IT 예산이 평균 2.2% 증가하는 데 그칠 것으로 예측하고 있는데, 이는 글로벌 인플레이션율 6.5%보다 낮습니다.
하지만 경제적 혼란을 겪는다고 해서 여러분의 경쟁자들이 기술에 대한 투자를 중단한다는 것을 의미하지는 않습니다. 그리고 여러분도 마찬가지입니다! CIO는 여전히 운영 효율성을 개선하기 위해 비용을 지출해야 합니다. 가능한 한 효율성을 높이고 중복성을 줄이기 위해 레거시 시스템을 현대화하고 도구를 합리화하는 데만 투자하면 됩니다.
경기 침체기에 IT 예산을 최대한 활용할 수 있는 몇 가지 팁을 소개합니다.
1. 엣지(edge)에 투자할 것
온프레미스 솔루션을 사용하고 있다면 지금이 바로 업그레이드 타이밍입니다. 최신 엣지 솔루션은 클라우드 기능을 확장하는 동시에 단편적인 솔루션들의 결합 비용을 줄이고, 서버 관리를 용이하게 할 수 있는 세대 교체를 의미합니다.
과거를 돌아보면, 클라우드의 첫번째 물결은 유연성과 TCO(총 소유 비용) 절감을 제공했습니다. 그러나 이러한 서비스들은 여전히 온프레미스 기술과 동일한 기본 요소입니다. 서버는 클라우드 서버(EC2 등)와 네트워크 연결 스토리지(S3 등)로 대체되었습니다. 트래픽이 급증하는 경우 클라우드는 더 많은 인프라를 프로비저닝할 수 있는 유연성을 제공하지만, 스케일업(및 스케일다운) 작업은 팀에서 직접 관리해야 합니다.
새로운 엣지 솔루션은 이를 추상화합니다. 개발자는 애플리케이션을 구축 후 서버를 관리할 필요 없이, 자동적으로 호스팅할 수 있습니다. 최신 엣지 플랫폼은 애플리케이션 툴을 통합하여 TCO를 절감하고, 효율성을 높이며, 오류를 줄일 수 있도록 설계되어, 개발 속도를 2배 이상 빠르게 합니다.
많은 기업들은 레거시 기술 스택을 업데이트하는 것이 수익 향상의 숨은 원천이 될 수 있다는 사실을 인지하고 못합니다. McKinsey에 따르면 개발 속도가 기업의 비즈니스 수익을 5배 향상시킬 수 있다는 사실을 쉽게 간과한다고 합니다.
2. 도구 비용에 유의할 것
DevOps 조직의 거의 절반은 25개의 툴을 사용하고, 41%는 610개의 툴을 사용합니다. 기업에서 연간 250만달러의 비용을 사용하는 셈입니다. 실제로 개발 및 운영팀의 69%는 숨겨진 비용, 보안 및 규정 준수 관리에 따른 유지보수 등의 이유로 여러가지 도구들을 통합하고자 합니다.
즉, 기업은 눈에 보이지 않는 "툴의 무질서한 증가세"를 부담하고 있으며, 이로 인해 TCO가 증가하고 기업의 ROI는 감소합니다.
서로 연결되어 있지 않은 3개의 툴이 혼재되어 있는 상태에서 이 툴들이 모두 매끄럽게 동작한다는 것을 보장하긴 어렵습니다. TCO를 절감하려면 실제로 다양한 툴을 통합하고 관리할 수 있는 툴이 필요합니다. 즉, 여러 공급업체의 제품을 구매하는 대신 총체적인 통합 플랫폼에 투자해야 합니다.
3. 보안을 소홀히 하지 않을 것
새로운 CVE와 제로 데이 공격은 매년 더 많이 발견되고 있습니다. 위협이 여러분의 구성원 보다 빠르게 증가하고 있는 것입니다. 보안을 소홀히 해서는 안됩니다. 확실한 것은 다른 기업들은 절대 소홀히 하고 있지 않다는 것입니다. 실제로 보안 개선은 2023년도 기술 투자의 첫번째 항목으로 꼽힙니다.
다른 기업들은 어떻게 하고 있을까요: CIO의 71%가 사내 조직의 보안을 양호 또는 우수하다고 평가하고 있습니다. 그러나 43%는 미래에 대한 준비가 되어 있지 않다고 느끼고 있습니다. 왜 그럴까요?
현명한 투자와 지출을 위해 다음의 질문에 대해 고민해 보십시오.
여러분의 공급업체는 엣지에서 증가하는 대규모 공격을 차단하고 최고 수준의 신뢰성과 성능을 유지할 수 있는 네트워크 규모를 갖추고 있습니까?
끊임없이 진화하는 위협에 대응하기 위해 자동화 및 머신러닝을 사용하고 있습니까?
네트워크 전체에 가상 패치를 적용하고 WAAP 룰셋을 업데이트하여 제로데이 위협을 즉시 완화할 수 있습니까?
단순하고 예측 가능한 가격의 셀프 서비스를 제공하는 유연한 계약 모델이 있습니까?
이 중 하나 이상의 답변이 "아니오"인 경우 기존 솔루션을 재평가해야 합니다. 엣지의 자동 운영을 통해 마찰이 일어나는 지점을 줄일 수 있는 솔루션을 고려할 때입니다.
결론
때로는 경기 침체기에 최고의 출발점이 탄생하기도 합니다. 아이러니하게도 통제 불능의 기술 투자에 대한 가장 현명한 대안 또한 기술 투자, 즉 경쟁업체를 뛰어넘어 수익 증대를 이끌 기술에 투자해야 합니다. 한시 바삐 나무를 잘라야 하는 상황에 톱을 정비하는데 시간을 허비할 수는 없기 때문입니다.
미래를 생각하는 기업이라면 엣지에서만 제공할 수 있는 자동화된 확장 운영으로, 마찰이 발생하지 않도록 하는 방법을 모색해야 합니다. 효율성, 컴플라이언스 준수, 비용 절감을 위해 애플리케이션 보안과 성능을 개발 프로세스에 통합하는 엣지 지원 솔루션을 고민해 보시기 바랍니다.
에지오는 웹 앱과 API를 위한 수직 통합형 엣지 솔루션을 사용하여 글로벌 엣지 네트워크를 운영하고 있습니다. 자세한 내용은 여기를 클릭해 주세요.
보안 공격의 빈도는 점점 증가하고 있으며 기업 운영에 부정적인 영향을 줄 수 있습니다. 더 이상 지체하지 마세요. 지금 다양한 엣지 보안 구성 요소를 통합 제공하는 솔루션을 고려하세요.
기존의 IT 보안 방법에는 점점 더 많은 결함이 발생하고 있으며 위협의 규모와 정교함도 계속 증가하고 있습니다. 넷스카우트(NETSCOUT)의 조사에 따르면 3초마다 한 건의 DDoS 공격이 발생하고 있습니다. 사이버 보안 및 인프라 보안 기관은 최근 알려진 익스플로잇 취약점 카탈로그에 66개의 새로운 취약점을 추가했으며, 2022년에는 새로운 일반 취약점 및 노출(CVE)이 전년 대비 25% 이상 증가할 것으로 예상하고 있습니다. 고객과 더 가까운 네트워크 엣지에서 제공되는 새로운 보안 기법이 보안 위협의 증가에 대응하는 효과적인 방법으로 떠오르고 있습니다.
최신 사이버 보안 위협은 기존 보안 방법의 결함을 드러냅니다
방화벽과 클라우드 스토리지라는 두 가지 고객 데이터 보안 방법을 고려해 보겠습니다. 방화벽은 최신 위협으로부터 보호하는 데 적합하지 않습니다. 방화벽은 IT 인프라, 서버, 데이터베이스를 보호하기 위한 것입니다. 하지만 기업이 이 보안 방법만 사용하는 것은 동작 감지기, 알람 또는 기타 안전 장치 없이 집의 문과 창문을 열어두는 것과 같습니다.
클라우드 기반 스토리지는 로컬(사용자 수준) 데이터 손실이나 파괴로부터 데이터를 보호하지만, 악의적인 제3자에게는 점점 더 매력적인 공격 대상입니다. IBM의 데이터 유출 비용 보고서에 따르면 데이터 유출의 45%가 클라우드에서 발생했습니다. 데이터센터 방화벽은 매우 민감한 데이터를 보관하는 집 안의 금고라고 생각하면 됩니다. 방화벽은 단 하나의 방어선으로, 뚫리면 막대한 비용이 발생할 수 있습니다. 실제로 데이터 유출 사고의 평균 비용은 430만 달러에 달합니다. 네트워크 다운타임이 발생하면 분당 9,000달러의 비용이 발생할 수 있습니다.
엣지 보안의 가치
엣지 보안은 커뮤니티의 게이트와 창문의 알람과 같이 보다 정교한 장벽을 포함하는 넓은 영역을 포괄합니다. 위협이 감지되면 실시간으로 알림을 받고 더 높은 정확도로 대규모로 즉시 규칙을 배포할 수 있습니다. 엣지 보안 제품도 더욱 발전하여 AI 및 기타 도구를 활용하여 위협에 지능적으로 대응합니다.
예를 들어 엣지 보안 제품은 강력한 봇넷 공격, 제로데이 위협, 크리덴셜 스터핑, CVE, 분산 서비스 거부(DDoS) 공격 등 고객의 특정 시스템과 데이터를 표적으로 삼는 다양한 유형의 공격을 식별하고 완화하도록 설계되었습니다. AI/ML 및 트래픽 행동 모델링을 활용하여 사람의 상호작용을 모방하려는 봇을 식별하는 것도 가능합니다. 이러한 수준의 보안은 엣지 외부에서는 찾아볼 수 없습니다.
인도의 대표적인 증권 거래소인 봄베이 증권 거래소(BSE)는 엣지 보안을 구현한 후 실시간으로 위협을 탐지하고 60초 이내에 보안 규칙을 배포하며 인프라 비용을 50% 이상 절감했습니다.
사용자는 모든 장소에서 데이터 프라이버시 보호를 기대하고 있습니다. 신뢰를 잃는 것은 곧 딜 실패를 의미합니다. PCI Pal에 따르면 소비자의 83%는 보안 침해가 발생한 직후 해당 기업과의 비즈니스를 중단하며, 이 중 21% 이상은 다시는 해당 기업과 거래하지 않는다고 합니다. 엣지 보안 제품은 캐시된 콘텐츠 위에 추가적인 보안 계층을 추가하고, 고객이 의존하는 타사 SaaS/PaaS 파트너에게 검증된 또 다른 보안 계층을 제공합니다.
엣지에 보안을 추가하여 SecOps 업무생산성 제고
보안 운영을 엣지에 통합하면 몇 분 안에 글로벌 도메인 전체에 안전한 업데이트를 구현할 수 있습니다. 성숙한 엣지 제품을 사용하면 감사 모드에서 수정 사항을 미리 보고 모든 변경 사항에 대해 A/B 테스트하거나 가상 패치를 수행할 수 있으므로 변경 사항을 적용하기 전에 그 영향을 파악할 수 있습니다. 변경 사항을 배포한 후 오류를 식별하는 대신 원하는 영향을 확인할 때까지 빠르게 검증하거나 반복할 수 있으므로 오버헤드를 줄일 수 있습니다. 이는 비즈니스 운영에 지장을 주지 않으면서 신속하게 대응해야 하는 제로데이 익스플로잇 대응에 특히 중요합니다.
조치 취하기
보안 공격의 빈도가 증가하고 있으며 언제든 조직에 발생할 수 있으므로 조치를 미루지 마세요. 다양한 엣지 보안 구성 요소를 통합한 솔루션을 고려하세요. 먼저, PCI DSS 엔드투엔드 암호화를 사용하여 물리적 네트워크를 보호하세요. 또한 DDoS 보호, 오리진 쉴드, DNS 관리를 사용하여 오리진 공격으로부터 데이터를 보호해야 합니다. 마지막으로, API를 보호하는 WAAP, 봇 관리, 레이어 7 DDoS 보호로 애플리케이션을 보호하세요.
엣지 보안의 선두주자인 에지오는 고객의 특정 환경을 검토하고 고객의 요구 사항을 충족하도록 솔루션을 조정합니다. 에지오는 액세스 제어, API 보안, 속도 제한기, 고급 봇 관리, 사용자 지정 규칙, 관리 규칙을 사용하여 모든 트래픽 보호 계층을 관리하여 보안 운영 팀이 보안 위협에 신속하게 대응할 뿐만 아니라 사전 예방적으로 조치를 취할 수 있도록 지원합니다. 에지오에 대해 자세히 알아보세요.
IT 리더는 고급 보안 정책, 효율성 향상 및 사용자 경험 개선을 중 하나만 택해야 하는 것이 아닌 이 모든 것을 모두 개선할 수 있습니다.
통념상 보안 비용과 사용자 경험 사이에는 적절한 균형이 필요하다고 알려져 있습니다. 마치 보안이 디지털 상호 작용에 대한 세금인 것처럼 다뤄져 왔지만, 이제는 구시대적인 발상에서 벗어날 때입니다.
Foundry에 따르면, 올해 기술 예산 증가 요인의 1순위는 사이버 보안 개선으로 꼽혔습니다. 2023년 CEO의 IT 최우선 과제는 다음과 같습니다:
1. IT와 경영 조직의 협업 강화
2. IT와 데이터 보안을 업그레이드하여 기업 리스크 감소
3. 고객 환경 개선
고급 보안 정책, 효율성 향상, 애플리케이션의 안정성 및 성능 향상을 통해 보다 나은 사용자 경험을 실현시킬 수 있습니다. 어떤 대가를 치르거나 절충안을 선택하지 않아도 됩니다.
보안의 역설
"트레이드오프" 사고방식을 이해하기 위해서는 '보안의 역설'을 살펴봐야 합니다. 사이버 공격은 매년 기하급수적으로 증가하고 있습니다. NETSCOUT에 따르면 DDoS 공격은 3초마다 1건씩 발생하며, MITRE는 2022년에 2만 5,000건 이상의 새로운 공통 취약성 및 노출(CVE)을 보고했는데, 이는 2021년보다 전년 대비 24% 증가한 수치입니다. 대부분의 조직에게 이제 사이버 공격은 발생 여부의 문제가 아니라 언제 발생하느냐의 문제가 되었습니다.
최근의 공격 사례들과 통계들을 보며 리더들은 종종 보안 솔루션 체인을 구현하여 과도하게 보상하는 경향이 있으며, 결국에는 새로운 공격으로부터 보호하고 공격 시 서비스 중단을 방지하기 위해 일관성을 잃은 여러가지 솔루션이 겹쳐 쌓이게 됩니다.
체인이 가장 약한 고리보다 강할 수 없습니다. 이렇게 분리된 솔루션은 보안 계층 간에 지연 시간 및 성능 병목 현상을 더하고 단일 장애 지점을 생성하여 온라인 비즈니스의 속도와 가용성에 영향을 미치게 됩니다. 여기에서 보안 역설이 생겨납니다. 조직이 네트워크와 애플리케이션을 보호하려는 시도가 어쩌면 자신을 해칠 수 있다는 것입니다.
데이터 침해로 인한 비용
보안의 암묵적인 비용 외에도, 조직을 공격할 때 발생하는 데이터 침해로 인한 실제 비용은 얼마나 될까요? IBM의 연간 데이터 침해 보고서에 따르면 2022년의 평균 데이터 침해 비용은 435만 달러로 사상 최고치를 기록했습니다. Gartner는 DDoS 공격으로 인한 다운타임 비용을 시간당 30만 달러로 추산했습니다.
이 수치에는 브랜드의 명성과 고객에 대한 잠재적인 손상이 포함되어 있지 않습니다. CIO Insight는 31%의 소비자가 보안 위반으로 인해 해당 기업과의 거래를 중단했다고 보고했습니다. 이 중 상당수는 브랜드에 대한 신뢰를 잃었다고 말했습니다. 또한 당연하게도 성능 저하는 이탈율을 높이고 전환율은 낮춥니다.
세분화된 보안 솔루션의 여러 레이어로 인해 운영 복잡성은 증가하고, 애플리케이션 성능은 저하됩니다. 사이버 공격의 빈도가 증가함에 따라 이러한 요소들이 고객 경험과 온라인으로 신속하고 안전하게 온라인에서 비즈니스를 전개하는데 부정적인 영향을 미치는 것은 당연합니다.
그럼에도 한가지 좋은 소식은 포괄적인 보안 접근 방식을 통해 공격이 수익에 도달하기 전에 신속하게 탐지하고 완화할 수 있다는 것입니다. 올바른 통합 보안 솔루션을 사용하면 성능과 고객 환경도 개선될 수 있습니다.
통념을 뒤집어 보다
앞서 언급한 바와 같이 기업은 성능, 운영 효율성 및 고객 환경을 개선하면서 보안을 강화할 수 있습니다. 하지만 ‘트레이드오프’ 없이 이를 달성할 수 있는 방법은 무엇일까요?
광범위한 글로벌 분산 플랫폼을 기반으로 구축된 전체적인 엣지 지원 보안 솔루션을 채택하여 최신 사이버 보안 위협을 해결하고 단일 장애 지점이나 성능 병목 현상 없이 네트워크 및 애플리케이션을 포괄적으로 보호할 수 있습니다. 엣지를 지원하는 포괄적인 보안 솔루션의 이점은 다음과 같습니다:
· 가동 시간 보장을 위한 대규모 확장 및 복원력
· 지능형 규칙 실행으로 위협 탐지 속도 향상
· 엣지 로직 및 CI/CD 워크플로우와의 통합으로 운영 개선
· 성능 및 사용자 환경을 개선하기 위해 소스단에서 공격 완화
간편한 통합 및 자동화 기능을 제공하는 보안 솔루션은 IT 워크플로우를 향상시키고 보안 업데이트를 신속하게 구현하여 변화하는 위협 환경에 대응할 수 있도록 지원합니다. 에지오의 플랫폼은 개발자가 애플리케이션 성능과 보안을 관리할 수 있는 가시성과 제어 기능을 제공합니다.
결과적으로 성능과 보안에 대한 통념을 뒤집는 것은 실제로 가능한 일이지만, 올바른 보안 솔루션을 갖추는 것이 중요합니다.
올바른 보안 솔루션은 궁극적으로 비용을 절감하고 운영 효율성을 높이며 고객 환경을 개선하는 동시에 데이터, 브랜드 및 수익을 보호할 수 있습니다. 이는 조직 전체에 윈윈이 됩니다.
에지오 Security를 통해 웹 애플리케이션 및 API 성능의 놀라운 개선을 경험해 보시기 바랍니다.