Offcanvas

AI / 소프트스킬 / 애플리케이션 / 인문학|교양

칼럼 | 인공지능에 '지능'은 없다

2022.04.01 Charles Simon  |  InfoWorld
자율주행 차량부터 슈퍼볼 광고의 춤추는 로봇까지 인공지능(Artificial Intelligence, AI)은 모든 곳에 존재한다. 하지만 모든 AI 사례의 문제점은 실제로 ‘지능적’이지 않다는 점이다. 이런 사례는 AI 기법을 사용하여 특정 문제를 해결하는 애플리케이션, 즉 ‘약인공지능(Narrow AI)’를 보여준다. 약인공지능은 인간이 보유한 지능과는 다르다.
 
ⓒ Unsplash

인간은 (바라건대) 일반적인 지능을 보유하고 있다. 인간은 광범위한 문제를 해결할 수 있고 이전에 맞닥뜨리지 않았던 문제를 해결하는 방법을 배울 수 있다. 새로운 상황과 새로운 것을 배울 수 있으며, 물리적인 물체가 3차원 환경에 존재하고 시간의 흐름 같은 다양한 물리적 속성이 적용된다는 것을 이해한다. 인간 수준의 사고 능력 또는 범용인공지능(Artificial General Intelligence, AGI)을 인공적으로 복제할 수 있는 능력은 오늘날 우리가 생각하는 AI에는 존재하지 않는다. 

지금까지 AI가 보여준 압도적인 성능을 무시하는 것은 아니다. 구글 검색은 대부분 사용자가 주기적으로 사용하는 AI의 좋은 예다. 구글은 많은 양의 정보를 놀라운 속도로 검색해 (일반적으로) 사용자가 원하는 결과를 목록의 상단에 제공한다. 마찬가지로 구글 보이스 서치(Google Voice Search)로 사용자는 구두로 검색을 요청할 수 있다. 애매모호한 표현을 사용하더라도 적절한 철자법, 맞춤법, 의미가 적용된 결과를 얻는다.

구글 검색이 잘 작동하는 이유는 무엇일까? 구글은 엄청난 양의 검색어와 사용자가 선택한 결과에 대한 이력 데이터를 보유하고 있다. 이런 데이터에서 검색할 가능성이 큰 검색어와 시스템을 유용하게 만들 수 있는 결과를 예측할 수 있다. 하지만 시스템이 수행 중인 작업이나 제시하는 결과를 이해할 것이라는 기대는 없다.

그래서 엄청난 양의 이력 데이터가 필요한 것이다. 사용자와의 모든 상호작용은 훈련 세트 데이터 생성에 활용할 수 있어 검색에 꽤 효과적이다. 하지만 훈련 데이터를 모두 수동으로 태그하는 것은 고된 작업이다. 게다가 훈련 세트의 편향은 결과에 직접적으로 반영된다. 예를 들어, 범죄 행동을 예측하기 위해 개발된 시스템이 인종 편견이 포함된 이력 데이터로 훈련됐다면 개발된 애플리케이션도 인종 편견을 갖게 된다. 

알렉사나 시리 같은 AI 비서는 다양한 변수가 포함된 스크립트를 따르기 때문에 실제보다 능력이 뛰어나다는 인상을 줄 수 있다. 하지만 모든 사용자가 알고 있는 것처럼 스크립트에 없는 말을 하면 예측할 수 없는 결과가 나온다.

단순한 예로, 개인 비서에게 “쿠퍼 쿱이 누구야?”라고 물어볼 때 ‘누구야’라는 표현은 나머지 가변적인 표현에 대한 웹 검색을 발동시키고 관련된 결과를 제공할 가능성이 크다. 다양한 스크립트 트리거와 변수가 있는 상황에서도 시스템은 일정 수준의 지능을 보여주지만, 실제로는 기호 조작 처리를 수행한다. AI의 기본적인 이해의 부재 때문에 음성 검색에 만족하는 사용자는 5%에 불과하다.

GPT-3나 왓슨 같은 대형 프로그램은 다양한 변수를 가진 스크립트의 개념을 전혀 확인할 수 없는 인상적인 능력을 갖고 있어 이해력이 있는 것처럼 보인다. 하지만 대형 프로그램도 마찬가지로 입력값을 보고 특정 출력 응답을 제공한다. AI 응답의 핵심인 데이터 세트(‘스크립트’)는 오늘날 규모가 너무 크고 가변적이어서 사용자가 스크립트를 벗어나기 전까지는 기본적인 스크립트를 알아채기 어려운 경우가 많다. 앞서 언급한 다른 모든 AI 사례처럼 스크립트를 벗어나는 입력값을 제공하면 예측할 수 없는 결과를 제공한다. GPT-3는 훈련 세트의 양이 너무 방대해서 편견을 없애는 것이 불가능하다는 것이 입증되었다.

결론은 현재 우리가 AI라고 부르는 것의 근본적인 단점은 상식에 대한 이해의 부재다. 이해의 부재는 다음 3가지의 역사적인 가정으로 인해 발생한다.
 
  • 지난 50년 동안 AI 개발의 기본이 된 주된 가정은 어려운 문제를 해결할 수 있다면 단순한 지능 문제는 이해가 된다는 점이다. 안타깝게도 이 가정이 틀렸음이 입증되었다. 이를 가장 잘 표현한 것이 모라벡의 역설(Moravec’s Paradox)이다. 1988년, 카네기 멜론 대학교의 유명한 로봇 기술자 한스 모라벡은 지능 테스트 또는 검색 프로그램 실행 시 컴퓨터가 성인 수준의 성과를 내도록 하는 것은 상대적으로 쉽지만, 예측 및 이동성 측면에서는 1살짜리 수준의 지능을 갖추는 것이 어렵거나 불가능하다고 말했다. 즉, 어려운 문제가 오히려 단순한 경우가 많고 단순해 보이는 문제가 엄청나게 어려운 경우가 많다.
  • 다음은 약인공지능 애플리케이션을 개발하면 일반 지능으로 발전할 것이라는 가정이다. 이 또한 사실이 아님이 밝혀졌다. 약인공지능 애플리케이션은 정보를 일반화된 형태로 저장하지 않기 때문에 다른 애플리케이션이 사용하여 학습의 폭을 넓힐 수 없다. 언어 처리 애플리케이션과 이미지 처리 애플리케이션을 합칠 수는 있지만 어린아이가 시각과 청각을 손쉽게 통합하는 것처럼 통합할 수는 없다.
  • 마지막으로, 컴퓨터 성능을 충분히 갖춘 충분히 큰 머신러닝 시스템을 개발할 수 있으면 자연스럽게 일반 지능을 보일 것이라는 가정이다. 이런 인식이 보편화한 시기에는 특정 분야의 지식을 수집하려고 시도했던 전문가용 시스템이 존재했다. 이런 시도는 분명 기본적인 이해의 부재를 극복할 수 있는 충분한 사례와 예시 데이터를 생성할 수 없었다. 단순히 기호를 조작하는 시스템은 일부 ‘스크립트를 벗어난’ 요청으로 인해 한계가 드러날 때까지 이해하는 것처럼 보일 수 있다.

AI 업계에서 이런 문제를 최우선순위로 삼지 않는 이유는 무엇일까? 돈을 따르기 때문이다.

예를 들어, 3살짜리 아이가 블록을 쌓는 능력을 키우는 개발 접근방식을 생각해보자. 물론 3살짜리처럼 블록 쌓는 법을 배우는 AI 애플리케이션 개발은 가능하다. 하지만 재정을 지원받을 가능성이 낮다. 왜 그럴까? 모든 3살짜리가 할 수 있는 한 가지 기능을 실행하는 애플리케이션 개발에 수백만 달러와 수 년의 시간을 투자할 사람은 없다.

더 큰 문제는 누군가 이런 프로젝트의 자금을 지원하더라도 AI가 실제 지능을 보여주지 못한다는 것이다. 상황 인식이나 맥락 이해가 없다. 게다가, 모든 3살짜리가 할 수 있는 일이 빠져 있다. 바로 4살이 되고 5살이 된 후 10살, 그리고 15살이 되는 것이다. 3살짜리 아이에게는 완전한 기능과 일반 지능을 갖춘 성인으로 성장하는 능력이 내재돼 있다.

그래서 인공지능이라는 용어를 사용할 수 없다. 지능이 그리 많지 않기 때문이다. 우리가 말하는 AI의 대부분은 단일 알고리즘, 역전파(backpropagation)에 기초한다. 딥러닝, 머신러닝, 인공신경망, 스파이킹(Spiking) 신경망이라는 이름 아래 ‘뇌처럼 작동한다’고 표현되는 기술이다. 하지만 AI를 강력한 통계 방법이라고 생각한다면, AI의 수준을 더 잘 이해하는 것이다.
editor@itworld.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.