'생각보다 복잡' 자연어처리는 어떻게 작동하나

InfoWorld
딥러닝의 도약으로 인공지능 번역과 기타 자연어처리(NLP) 작업이 개선됐다. 

다음은 필자 친구의 페이스북에 올라온 인공지능과의 대화다. 

: 알렉사, 아침 5시 30분 요가 수업이 있다는 걸 다시 알려줘.
알렉사: 쇼핑목록에 테킬라를 추가했습니다. 


기기와 대화를 나눌 때, 종종 기기는 우리가 말하는 것을 정확히 인식한다. 우리는 무료 서비스를 이용하여 온라인에서 접하는 외국어 구절을 영어로 번역하기도 하는데, 가끔은 정확하게 번역해 준다. 자연어처리는 엄청나게 발전했지만, 아직도 개선의 여지가 상당하다. 

필자 친구에게 인공지능의 우발적인 테킬라 주문은 생각보다 더 적절한 것이었을 수도 있다.  
 
ⓒGetty Images Bank


자연어처리란 무엇인가?
NLP라고 하는 자연어처리는 실패에 관한 이야기에도 불구하고 현재는 딥러닝을 위한 주요한 성공적인 응용 분야 중 하나다. 자연어처리의 전반적인 목표는 컴퓨터가 인간의 언어를 이해하고 이에 따라 행동할 수 있도록 하는 것이다. 우리는 그것을 다음 섹션에서 더 자세히 다룰 것이다. 

역사적으로, 자연어처리는 처음에는 문법이나 어간 추출과 같은 규칙을 작성하여 규칙 기반 시스템에 의해 다루어졌다. 그 규칙들을 사람이 직접 하는 데 드는 엄청난 일의 양은 별론으로 하더라도, 제대로 작동하지 않는 경향이 있었다. 

왜 잘 안되었을까? 간단한 예로 철자법의 경우를 생각해보자. 스페인어와 같은 몇몇 언어에서는 철자가 정말 쉽고 방식도 규칙적이다. 그러나 제2외국어로 영어를 배우는 사람은 영어 철자와 발음이 얼마나 불규칙할 수 있는지 안다. 초등학교 철자법칙인 "C 뒤에 올 때를 제외하고 I는 E보다 먼저 온다. 또는 네이버나 웨이처럼 에이(A)라고 발음할 때는 E가 먼저 온다”와 같이 예외로 얼룩진 규칙을 프로그래밍해야 한다고 상상해 보자. 이미 알려진 바와 같이 "E 앞에 I"는 거의 규칙이라고 할 수도 없다. 정확히 말해서 아마도 3/4 정도는 예외에 해당할 것이다.  

1980년대 말과 1990년대 초에 손으로 써진 규칙을 거의 포기한 후, NLP 커뮤니티는 통계적 추론과 머신러닝 모델을 사용하기 시작했다. 많은 모델과 기법들이 시도되었지만, 초기 사용을 넘어서 일반화되었을 때에는 살아남은 경우가 거의 없었다. 좀더 성공적인 방법 중 몇 가지는 여러 분야에서 사용되었다. 예를 들어, 은닉 마르코프 모델(Hidden Markov Model)은 1970년대에 음성 인식에 사용되었고 1980년대와 1990년대에 특히 단백질과 DNA 시퀀스 분석과 같은 생체정보학에서 사용하기 위해 채택되었다.

구문 기반 통계 인공지능 번역 모델은 여전히 각 언어 쌍에 대해 수정되어야 했고, 정확성과 정밀도는 지도 학습(supervised learning) 훈련을 위해 이용할 수 있는 원문 말뭉치의 품질과 크기에 따라 달랐다. 프랑스어와 영어에 관해서 캐나다의 의회 회의록인 한사드(Hansard)(1867년부터 2개 국어를 사용하는 법에 따라 작성된 의회 회의록)는 지도 학습에 매우 중요했고 지금도 중요하다. 유럽 연합의 회의록은 더 많은 언어를 제공하지만, 기간이 이보다 짧다. 

2016년 가을, 구글 번역기는 평균적으로 원어의 의미와 모호한 연관성을 가진 "단어 샐러드"를 제작하는 것에서 시작하여 적어도 영어-프랑스어, 영어-중국어 및 영어-일본어 같은 지원 언어 쌍에 대해서는 세련되고 일관된 문장을 더 자주 생산해 내게 되었다. 그 이후로 더 많은 언어 쌍이 추가되었다.

이러한 극적인 개선은 구글 브레인팀과 구글 번역팀이 기존의 구문 기반의 통계 인공지능 번역 알고리즘을 사용하는 것에서 구글의 텐서플로 프레임워크를 이용하여 심층 학습과 워드 임베딩으로 훈련된 신경 네트워크를 사용하는 것으로 구글 번역기를 개혁하기 위해 9개월에 걸쳐 함께 노력한 결과였다. 1년이 되지 않아 신경기계번역(NMT)이 통계기계번역(SMT)을 대체하여 최신의 기법으로 자리매김했다. 
 

---------------------------------------------------------------
머신러닝 인기기사
->요즘 화제 '챗봇'··· CMO가 알아야 할 7가지
->기계학습 구현을 쉽게!··· 머신러닝 프레임워크 13종
->기계 학습을 최대한 활용할 수 있는 11가지 오픈소스 도구
->유비쿼터스 AI 시대··· 머신러닝이 차세대 BI인 이유
->'인지, 신경, 딥, 머신?'··· AI 분야 기본 개념 따라잡기
->칼럼 | 성큼 도래한 유비쿼터스 AI 세상··· 마음의 준비를 'Her'하라
->기계 학습을 최대한 활용할 수 있는 11가지 오픈소스 도구
->인공지능의 무한질주···협상·테스팅에도 접목
---------------------------------------------------------------

마법이었을까? 아니, 전혀 그렇지 않다. 정말 쉽지 않은 일이었다. 변환을 연구하는 연구자들은 그들의 네트워크를 훈련하기 위해 거대한 번역 말뭉치에 접근했지만, 곧 그들은 훈련을 위해 수천 개의 GPU가 필요하며, 그들의 훈련된 신경 네트워크에서 구글 번역기를 실행하기 위해서는 새로운 종류의 칩인 텐서 처리 유닛(TPU)을 개발해야 한다는 것을 알게 되었다. 그들은 또한 인간 번역가 못지않을 모델을 훈련하면서 수백 번이나 그들의 네트워크를 정교하게 다듬어야 했다.

 


자연어처리업무
주요 NLP 업무에는 구글 번역에서 다루는 인공지능 번역의 문제 외에도 자동 요약, 대용어 해소(co-reference resolution) (특히 대명사의 경우 같은 대상을 가리키는 단어 구분), 개체명 인식(사람, 장소, 조직을 식별), 자연어 생성(정보를 읽을 수 있는 언어로 변환), 자연어 이해(텍스트 청크를 1차적 논리 구조와 같은 보다 공식적인 표현으로 변환), 부분 음성 태깅, 정서 분석(문자를 특정 대상에 대해 호의적이거나 그렇지 않은 것으로 분류), 음성 인식(오디오를 텍스트로 변환) 등이 포함된다. 

최신 세대의 신경망 기반 NLP 시스템은 때로는 중간 단계를 생략하는 것이 가능하기는 하지만, 주요 NLP 작업은 종종 하위 작업으로 분류된다. 예를 들어, 트랜스레이터트론(Translatotron)이라고 불리는 구글의 실험적인 음성 대 음성 변환기는 텍스트, 언어 번역, 그리고 텍스트 대 음성의 중간 단계 없이 음향 분석도에서 작동함으로써 스페인어를 직접 영어로 번역한다. 트렌스레이터트론은 아직 그렇게 정확하지는 않지만, 개념의 증거가 되기에는 충분하다.  

자연어처리기법
다른 머신러닝 문제들과 마찬가지로, NLP 문제는 대부분 모델링 데이터를 준비하기 위한 절차의 파이프라인으로 대체로 해결된다. DJ 사카르는 파이썬을 이용한 NLP에 대한 훌륭한 튜토리얼에서 다음과 같은 표준 워크플로우를 설명한다. 텍스트 전처리 -> 텍스트 구문 분석(parsing) 및 탐색 데이터 분석 -> 텍스트 표현 및 특질 공학(feature engineering) -> 모델링 및 패턴 마이닝 -> 평가 및 배치. 

사카르는 뷰티풀 수프(Beautiful Soup)를 사용하여 스크랩한 웹사이트에서 텍스트를 추출한 다음 NLTK(Natural Language Toolkit)스페이시(spaCy)를 사용하여 이를 토큰화, 어간 추출, 표제화 추출하는 것뿐 아니라 불용어(stopword)를 제거하고 축약된 말을 확장함으로써 텍스트를 사전 처리한다. 그리고 나서 그는 계속해서 NLTK와 스페이시를 사용하여 언어의 일부에 태그를 붙이고, 부분 구문분석(shallow parsing)을 수행하고, 태그를 붙이기 위해 엔그램(Ngram) 말뭉치를 추출한다. 엔그램에는 유니그램(Unigram), 바이그램(bigram), 트리그램(trigram)이 포함된다. 그는 NLTK와 스탠포드 파저(Stanford Parser)를 사용하여 파스트리(parse tree)를 생성하며, 스페이시를 사용하여 종속 트리를 생성하고 개체명 인식을 수행한다. 

사카르는 그의 예시 데이터 세트가 지도된 머신러닝이나 딥러닝 훈련을 위해 태그되지 않았기 때문에, 몇 가지 지도되지 않은 방법을 사용하여 정서 분석으로 넘어간다. 이후 기사에서, 사카르는 구글의 유니버설 센텐스 임베딩 모델에 접근하고 감성 분석을 위해 영화 평론 데이터 세트를 분석하는 데 전이학습을 수행하기 위해 텐서플로를 사용하는 것을 논의한다.

여러분이 이 기사들을 읽고 그것에 수반되는 주피터 노트북을 통해 작업하는 것을 이해하는 것처럼, 텍스트 분석에는 하나의 보편적인 모범 모델이나 알고리즘이 존재하지 않는다. 사카르는 자신의 데이터에 어떤 것이 가장 잘 작용하는지 보기 위해 끊임없이 여러 모델과 알고리즘을 시도한다. 

최근의 NLP용 딥러닝 기반 모델과 방법에 대한 리뷰를 읽어보려는 경우, 자신을 엘비스(Elvis)라고 부르는 AI 교육자가 작성한 기사를 추천한다.

자연어처리 서비스
당신은 아마존 웹 서비스, 마이크로소프트 애저, 구글 클라우드가 그들의 잘 알려진 음성 인식 및 언어 번역 서비스 외에도 한 종류 또는 다른 종류의 자연어처리 서비스를 제공하기를 기대했을 것이다. 물론 그들은 그렇게 하고 있다. 일반 NLP 모델뿐만 아니라 맞춤형 NLP 모델도 있다. 

아마존 컴프리헨드는 비정형 텍스트에서 주요 문구, 장소, 사람들의 이름, 브랜드, 이벤트, 정서를 추출하는 자연어처리 서비스다. 아마존 컴프리헨드는 미리 훈련된 딥러닝 모델을 사용하며 다소 일반적인 장소와 사물을 식별한다. 이 기능을 확장하여 좀 더 구체적인 언어를 식별하려면, 도메인별 엔티티를 식별하고 문서를 자신의 범주로 분류하도록 아마존 컴프리헨드의 사용자 정의를 설정할 수 있다.

마이크로소프트 애저는 여러 개의 NLP 서비스가 있다. 텍스트 애널리틱스는 텍스트 블록의 언어, 정서, 주요 구문 및 엔티티를 식별한다. 지원되는 능력은 언어에 따라 다르다.

마이크로소프트의 루이스(LUIS : Language Understanding)는 소셜 미디어 앱, 채팅봇, 음성 지원 데스크톱 애플리케이션을 위한 사용자 정의가 가능한 자연어 인터페이스다. 사전에 구축된 루이스 모델, 사전에 구축된 도메인별 모델 또는 머신러닝 또는 리터럴 엔티티(literal entity)가 있는 사용자 정의가 설정된 모델을 사용할 수 있다. API를 제작(authoring)하거나 루이스 포털을 사용하여 사용자 지정 루이스 모델을 구축할 수 있다.

좀 더 기술적인 측면에서 마이크로소프트는 애저 머신러닝 서비스를 사용하여 맞춤형 애플리케이션을 위한 버트(BERT) NLP 모델을 미세 조정하는 방법을 보여주는 페이퍼코드를 발표했다. 

구글 클라우드는 사전 교육을 받은 자연어 API와 사용자 정의가 가능한 오토머신러닝(AutoML) 자연어를 모두 제공한다. 자연어 API는 텍스트에서 구문, 엔티티, 정서를 찾아내고 텍스트를 사전 정의된 범주 집합으로 분류한다. 오토머신러닝 자연어에서는 심층 전이 학습을 사용하여 자신의 범주 집합에 대한 사용자 정의 분류기를 훈련할 수 있다. 

*Martin Heller는 <인포월드>의 객원기자이자 평론가다. 그는 웹 및 윈도우 프로그래밍 컨설턴트로 1986 년부터 2010년까지 데이터베이스, 소프트웨어, 웹 사이트를 개발했다. 최근에는 알파소프트웨어(Alpha Software)의 기술 및 교육 담당 부사장 겸 튜비파이(Tubifi)의 회장 겸 CEO로 재직했다. ciokr@idg.co.kr