칼럼 | 오늘날 인공지능이 발전할 수 있었던 이유

Computerworld
인공지능은 파란만장한 과거의 역사를 지니고 있다. 컴퓨터 과학 세계에서 정말 큰 기대를 모았지만, 크나큰 실망감을 안겼다. 전문가 시스템, 신경망, 로직, 추론을 위한 통계 모델이 부흥하는가 싶더니 이내 원동력을 잃었다.

그러나 최근 들어 인공지능에 관한 학계와 산업에서의 관심이 다시금 부상했다. 애플의 시리(Siri), IBM 왓슨, 자율주행 차와 전례 없는 수준의 지능을 보이다 못해 무섭기까지 한 기계학습, 데이터 마이닝, 예측 시스템이 급증하고 있다.

그렇다면 과거와 지금의 인공지능에는 무슨 차이가 있을까? 무엇이 인공지능이 기술 사회를 바꿔놓을 것이라고 믿도록 만들었을까?

아이러니한 점은 인공지능의 핵심 기술은 과거와 비교하면 크게 변하지 않았다는 점이다. 사실 왕년의 인공지능은 부적절한 설계 때문에 ‘흥’ 하지 못했다. 인공지능을 구현하는 데 필요한 기술적인 제반 사항이나 환경이 이를 뒷받침해주지 못했다. 즉, 과거와 다르게 오늘날의 인공지능은 향상된 계산 능력, 빅데이터의 출현, 빠른 데이터 처리 속도 덕분에 이뤄지고 있는 것이다.

예로 들어, IBM 왓슨은 ‘사실’이 여러 가지 형태로 표현되며 그에 적절한 답과 연결된다는 아이디어를 활용한다. 처음에는 현재 사용자가 찾으려는 것이 무엇인지 판단하는 데 필요한 요소와 관계를 추출하고자 입력 언어를 분석한다. 그리고 오리지널 쿼리에서 단어를 이루는 수천 가지의 패턴을 활용해 대규모 말뭉치에서 일치하는 항목을 찾는다. 각 매치는 단일 증거 조각을 제공하고, 증거의 각각의 증거는 각 답변과 연관된 숫자로 왓슨에 제공된다. 왓슨은 엄청나게 방대한 서로 다른 매칭을 보유하고 있는데, 그 점에서 최신 인공지능 기술 가운데 훌륭하다.

만일 학습할 문서의 수가 작으면 필요한 정보를 찾는 것이 힘들다. 무엇인가를 이해할 수 있는 표현이 적기 때문이다. 또한, 올바른 정보를 찾을 확률도 낮아진다. 그래서 데이터 세트가 많을수록 검색 결과도 향상된다.

왓슨은 “미국에서 가장 큰 도시”를 물어보면 왓슨이 “시카고는 미국에서 가장 큰 도시 중 하나다”라거나 “LA는 미국 문화 수출의 최대 도시다”와 같은 말로 혼란스러움을 유발하지 않는다. “뉴욕이 가장 큰 도시다”, “미국에서 가장 큰 도시는 뉴욕이다”, “뉴욕보다 더 큰 도시는 없다”와 같은 수천 개의 문장으로부터 추출한 결과를 보여준다.

구글의 딥러닝도 이와 비슷하다. 딥 러닝 알고리즘은 출력값 집합으로 공급되는 노드 계층을 통해 입력값을 주는 네트워크에 미세한 변화를 만든다. 잘 훈련된 네트워크는 픽셀값들의 집한을 취해 변환층을 통해 이 값들을 공급한다. ‘고양이’나 ‘개’ 또는 ‘차’와 같은 결과 세트를 생산한다. 이를 수행하는 데 필요한 훈련은 수 많은 예제로 구동하는 네트워크에 대한 작은 변화에 기초한다.

이러한 네트워크를 훈련하는 핵심 아이디어가 나온 지 30년 도 넘었다. 과거에는 수백, 수천 가지의 예제로 문제를 해결하려고 하는데도 시간이 오래 걸렸다. 이제는 수백만 개의 예제가 있더라도 전문 프로세서의 등장으로 더 빨리 학습할 수 있다.

이 기술은 수백, 수천 가지의 예제를 가진 문제에 적용됐으며, 고통스러울 정도로 느린 기계를 동작하는 데 이용된다. 이제 이 같은 기술은 수백만 개의 예제로 학습하고 더 빠르게 이러한 예제로부터 학습할 수 있는 전문 프로세서로 기계를 실행할 수 있다.

인공지능을 둘러싼 전 세계의 관심은 과거보다도 더 강력하다. 그러나 인공지능 기술만이 능사는 아니다. 이에 필요한 데이터와 데이터 처리 속도 기술을 제공하고 환경과 기반을 갖춰야 한다.

가장 흥미로운 것은 무엇일까? 기회가 무한하다는 것이다. 기계가 더 빨라질수록 데이터는 계속 성장할 것이며 어제오늘, 그리고 미래의 인공지능 시스템은 성공의 가도를 달릴 것이다. editor@itworld.co.kr