2018.04.03

애플리케이션이 '보고 듣고 냄새 맡고 맛을 보는' 방법··· 센서와 머신러닝

Andrew C. Oliver | InfoWorld
이제 컴퓨터도 보고 듣고 느끼고 냄새를 맡고 맛을 보고 말을 할 수 있다. 딥러닝과 머신러닝, 빨라진 CPU, 새로운 센서를 통해서다. 모든 감각은 카메라와 같은 일종의 센서와 수학적 알고리즘, 보통 지도(supervised) 머신러닝 알고리즘과 모델의 형태로 구현된다. 컴퓨터에서 사용 가능한 감각은 다음과 같다.



보기 : 이미지 및 얼굴 인식
최근 이미지 및 얼굴 인식에 대한 연구를 통해 컴퓨터는 개체의 존재를 감지할 뿐만 아니라 여러 개의 비슷한 개체도 탐지할 수 있게 됐다. 다양한 오픈소스 릴리스를 통해 이 분야를 주도하는 기업은 페이스북과 구글이다. 페이스북은 동영상의 사물 감지를 목표로 연구 중이다.

컴퓨터 ‘시각’을 위한 기술
개체:
• 페이스북 리서치: 개체 분할 학습
• 딥마스크(DeepMask)
• 멀티패스 네트워크(Multipath Network)
• 디텍트론(Detectron)
• 텐서플로우(TensorFlow) 모델

얼굴:
• 오픈페이스(OpenFace)

복합:
• 오픈CV(OpenCV)

기기 사용:
• 쥬부아(Jevois)

최근 많이 발전한 분야로, 이미지의 개체를 다른 개체와 분할할 수 있는 수준이다. 그러나 무언가를 발견하고 이를 다른 것으로부터 분할할 수 있다고 해서 그게 무엇인지 안다는 의미는 아니다. 무엇인지 알려면 사물을 인식하는 모델을 학습시켜야 한다.

강력한 툴이지만 극단적으로 많은 데이터를 필요로 한다. 그래서 페이스북과 구글은 경쟁에 대해서는 별로 걱정하지 않고 이러한 툴을 릴리스하고, 그 대가로 커뮤니티에서 개발되는 파생품과 연구의 혜택을 얻는다. 어차피 수백만 또는 수십억 개의 이미지뿐만 아니라 그 이미지를 처리할 컴퓨팅 성능까지 보유한 기업은 극소수에 불과하다.

본질적으로 머신러닝이나 딥 러닝을 사용한 개체 분류를 위해서는 양, 고양이 또는 무엇이든 다양한 파생 개체를 포함해서(큰 개체와 작은 개체, 털이 많고 적은 개체, 마르고 뚱뚱한 개체, 꼬리가 없는 개체 등) 일단 “봐야” 한다. 모든 변형을 인식하는 모델을 학습시키는 과정은 그 다음이다.

페이스북과 구글이 이 분야에 가장 많은 공을 들이고 있지만 여러 기능을 조합한 오픈CV 라이브러리, 얼굴 인식에 집중하는 오픈페이스와 같은 다른 툴도 있다.

쥬부아(프랑스어로 “나는 본다”라는 뜻)는 아두이노 기기를 위한 스마트 카메라로, 오픈소스 라이브러리를 기반으로 이미 학습된 상태로 제공된다. 약 1,000가지의 개체를 인식하도록 학습됐다. 자신의 모델로 직접 조작이 가능하므로 스스로 비행하는 자율 쿼드콥터를 만들고자 한다면 얼마든지 시도해볼 수 있다!

듣기 : 음성 인식과 소리 분류
컴퓨터 “청각”은 대부분 음성 인식에 중점을 둔다. 그러나 소리 분류도 가능하다. 소리 분류가 존재하는 이유는 물론 샤잠(Shazam)이지만 일반적인 소리 분류를 위한 모델은 기대하는 만큼 많지 않고 그 범위도 넓지 않다. 그래도 파이오디오애널리시스(PyAudioAnalysis)를 사용하면 .wav 파일을 사용해서 소리를 분류할 수는있다.

새의 지저귐이나 도로 소음을 기록한 파일이 있다면 이미지 인식과 마찬가지로 분류 모델을 학습시켜야 한다. 그러나 투자는 미약한 편이다. 페이스북에서 소리의 비중이 적기도 하고, video.google.com과 images.google.com은 있어도 sounds.google.com은 없기 때문이기도 하다.

음성 인식의 경우 CMU스핑크스(CMUSphinx), 칼디(Kaldi)와 같이 전통적인 은닉 마코프(Hidden Markov) 모델을 사용하는 오픈소스를 찾을 수 있다. 다른 구현도 있지만 온라인과 오프라인 디코딩으로 구분된다. “온라인”은 마이크에 잡히는 소리를 바로 포착함을 의미하고 “오프라인”은 .wav 파일이 생성될 때까지 기다려야 함을 의미한다.

이 분야의 주요 업체인 IBM, 구글, 애플, 마이크로소프트 모두 각각의 구현을 보유했다. 구글이 상당히 뛰어나다. 자바스크립트를 사용해서 브라우저에서 음성 인식도 가능하다.

촉각 : 공개 기술이 거의 없는 감각
터치 센서를 사용해서 “느낌”을 탐지하는 분야에서는 별다른 움직임이 없다. 주로 제어 애플리케이션에 사용된다. 과거의 닌텐도 파워 글러브(Power Glove)가 예다. 모두의 기대를 모았지만 실제로 나오지는 않았으며 제대로 작동도 하지 않은 것으로 알려졌다.

“손을 댔는지 여부를 확인하는” 아두이노를 위한 센서가 있고 제스처 감지를 위한 라이브러리와 센서도 있다. “손을 댔는가”라는 측면에서 가장 유망한 기술 혁신은 정전용량성 직물이다. 그러나 “표면을 만져 결함이 있는지 여부를 확인하는” 실용적인 기계에서는 대부분 광학 또는 초음파를 사용한다.

냄새 : 전자 코
컴퓨터도 냄새를 맡는다. 실제 사용 사례도 있다. “전자 코”는 꽤 오래 전에 개발된 기술이다.

저렴한 버전의 경우 센서가 아두이노 기기에 연결되어 가스를 “흡입”한다. 가스의 체적에 따라 예를 들어 맥주에 사용된 홉 또는 공기의 유독성을 “탐지”할 수 있다. 이러한 기술은 폭탄 탐지부터 품질 관리에 이르기까지 광범위하게 사용되고 있다.

맛 : 이것도 공개 기술이 거의 없는 감각
컴퓨터에게 맛이란 무엇인가? 맛은 주관적이며 사람이 느끼는 맛 중 상당수가 사실은 냄새다. 이 분야에서는 화학, 미생물, PH 및 적정 센서가 사용된다. 실제 응용 범위는 병이 있는지 여부 탐지, 포도당 수준이 충분한지 여부 탐지 또는 독극물이 있는지 여부 탐지 등 광범위하다.

또한 인간과 마찬가지로 냄새와 많은 부분이 겹친다. 공개 소스 코드는 극히 드물고, 적절히 모델을 학습시키기 위해서는 화학 실험실 또는 그러한 실험을 통해 확보한 데이터가 있어야 한다.

영화 속 장면의 현실화는 아직
지금까지 오감에 대해 알아봤다. 그렇다면 스타 트렉: 더 넥스트 제네레이션에 나오는 커맨더 데이터, 최소한 그보다 머리가 나쁜 사촌인 B4 정도라도(아직 AGI는 없으니) 만들 수 있을까? 아마 아직은 만들지 못할 것이다. 센서와 라이브러리가 있다 해도 모든 분야에서 완전히 학습된 모델이 준비되지는 않았기 때문이다. 또한 막대한 양의 데이터가 필요하며 대부분의 경우 너무 느려서 실시간으로 사용할 수 없다.

아직 인류는 동영상 속 얼굴을 인식하기 위해 연구하는 단계다. 촉각은 “만졌는지 여부를 확인”하는 정도이거나 기타 단일 목적 센서가 대부분이다. 냄새도 비슷한 상황이고 맛은 더 더디다.

대부분의 머신러닝과 딥 러닝과 마찬가지로 단일 목적 애플리케이션(예를 들어 커피가 썩었는지 여부 확인)에서는 AI와 센서가 상당한 수준까지 발전했다. 컴퓨터는 아직 인간의 수준에는 이르지 못했지만 오감을 다 갖추고 있으며 개발자를 위한 무료 및 사유 형태의 구현이 폭넓게 제공되고 있다. editor@itworld.co.kr



2018.04.03

애플리케이션이 '보고 듣고 냄새 맡고 맛을 보는' 방법··· 센서와 머신러닝

Andrew C. Oliver | InfoWorld
이제 컴퓨터도 보고 듣고 느끼고 냄새를 맡고 맛을 보고 말을 할 수 있다. 딥러닝과 머신러닝, 빨라진 CPU, 새로운 센서를 통해서다. 모든 감각은 카메라와 같은 일종의 센서와 수학적 알고리즘, 보통 지도(supervised) 머신러닝 알고리즘과 모델의 형태로 구현된다. 컴퓨터에서 사용 가능한 감각은 다음과 같다.



보기 : 이미지 및 얼굴 인식
최근 이미지 및 얼굴 인식에 대한 연구를 통해 컴퓨터는 개체의 존재를 감지할 뿐만 아니라 여러 개의 비슷한 개체도 탐지할 수 있게 됐다. 다양한 오픈소스 릴리스를 통해 이 분야를 주도하는 기업은 페이스북과 구글이다. 페이스북은 동영상의 사물 감지를 목표로 연구 중이다.

컴퓨터 ‘시각’을 위한 기술
개체:
• 페이스북 리서치: 개체 분할 학습
• 딥마스크(DeepMask)
• 멀티패스 네트워크(Multipath Network)
• 디텍트론(Detectron)
• 텐서플로우(TensorFlow) 모델

얼굴:
• 오픈페이스(OpenFace)

복합:
• 오픈CV(OpenCV)

기기 사용:
• 쥬부아(Jevois)

최근 많이 발전한 분야로, 이미지의 개체를 다른 개체와 분할할 수 있는 수준이다. 그러나 무언가를 발견하고 이를 다른 것으로부터 분할할 수 있다고 해서 그게 무엇인지 안다는 의미는 아니다. 무엇인지 알려면 사물을 인식하는 모델을 학습시켜야 한다.

강력한 툴이지만 극단적으로 많은 데이터를 필요로 한다. 그래서 페이스북과 구글은 경쟁에 대해서는 별로 걱정하지 않고 이러한 툴을 릴리스하고, 그 대가로 커뮤니티에서 개발되는 파생품과 연구의 혜택을 얻는다. 어차피 수백만 또는 수십억 개의 이미지뿐만 아니라 그 이미지를 처리할 컴퓨팅 성능까지 보유한 기업은 극소수에 불과하다.

본질적으로 머신러닝이나 딥 러닝을 사용한 개체 분류를 위해서는 양, 고양이 또는 무엇이든 다양한 파생 개체를 포함해서(큰 개체와 작은 개체, 털이 많고 적은 개체, 마르고 뚱뚱한 개체, 꼬리가 없는 개체 등) 일단 “봐야” 한다. 모든 변형을 인식하는 모델을 학습시키는 과정은 그 다음이다.

페이스북과 구글이 이 분야에 가장 많은 공을 들이고 있지만 여러 기능을 조합한 오픈CV 라이브러리, 얼굴 인식에 집중하는 오픈페이스와 같은 다른 툴도 있다.

쥬부아(프랑스어로 “나는 본다”라는 뜻)는 아두이노 기기를 위한 스마트 카메라로, 오픈소스 라이브러리를 기반으로 이미 학습된 상태로 제공된다. 약 1,000가지의 개체를 인식하도록 학습됐다. 자신의 모델로 직접 조작이 가능하므로 스스로 비행하는 자율 쿼드콥터를 만들고자 한다면 얼마든지 시도해볼 수 있다!

듣기 : 음성 인식과 소리 분류
컴퓨터 “청각”은 대부분 음성 인식에 중점을 둔다. 그러나 소리 분류도 가능하다. 소리 분류가 존재하는 이유는 물론 샤잠(Shazam)이지만 일반적인 소리 분류를 위한 모델은 기대하는 만큼 많지 않고 그 범위도 넓지 않다. 그래도 파이오디오애널리시스(PyAudioAnalysis)를 사용하면 .wav 파일을 사용해서 소리를 분류할 수는있다.

새의 지저귐이나 도로 소음을 기록한 파일이 있다면 이미지 인식과 마찬가지로 분류 모델을 학습시켜야 한다. 그러나 투자는 미약한 편이다. 페이스북에서 소리의 비중이 적기도 하고, video.google.com과 images.google.com은 있어도 sounds.google.com은 없기 때문이기도 하다.

음성 인식의 경우 CMU스핑크스(CMUSphinx), 칼디(Kaldi)와 같이 전통적인 은닉 마코프(Hidden Markov) 모델을 사용하는 오픈소스를 찾을 수 있다. 다른 구현도 있지만 온라인과 오프라인 디코딩으로 구분된다. “온라인”은 마이크에 잡히는 소리를 바로 포착함을 의미하고 “오프라인”은 .wav 파일이 생성될 때까지 기다려야 함을 의미한다.

이 분야의 주요 업체인 IBM, 구글, 애플, 마이크로소프트 모두 각각의 구현을 보유했다. 구글이 상당히 뛰어나다. 자바스크립트를 사용해서 브라우저에서 음성 인식도 가능하다.

촉각 : 공개 기술이 거의 없는 감각
터치 센서를 사용해서 “느낌”을 탐지하는 분야에서는 별다른 움직임이 없다. 주로 제어 애플리케이션에 사용된다. 과거의 닌텐도 파워 글러브(Power Glove)가 예다. 모두의 기대를 모았지만 실제로 나오지는 않았으며 제대로 작동도 하지 않은 것으로 알려졌다.

“손을 댔는지 여부를 확인하는” 아두이노를 위한 센서가 있고 제스처 감지를 위한 라이브러리와 센서도 있다. “손을 댔는가”라는 측면에서 가장 유망한 기술 혁신은 정전용량성 직물이다. 그러나 “표면을 만져 결함이 있는지 여부를 확인하는” 실용적인 기계에서는 대부분 광학 또는 초음파를 사용한다.

냄새 : 전자 코
컴퓨터도 냄새를 맡는다. 실제 사용 사례도 있다. “전자 코”는 꽤 오래 전에 개발된 기술이다.

저렴한 버전의 경우 센서가 아두이노 기기에 연결되어 가스를 “흡입”한다. 가스의 체적에 따라 예를 들어 맥주에 사용된 홉 또는 공기의 유독성을 “탐지”할 수 있다. 이러한 기술은 폭탄 탐지부터 품질 관리에 이르기까지 광범위하게 사용되고 있다.

맛 : 이것도 공개 기술이 거의 없는 감각
컴퓨터에게 맛이란 무엇인가? 맛은 주관적이며 사람이 느끼는 맛 중 상당수가 사실은 냄새다. 이 분야에서는 화학, 미생물, PH 및 적정 센서가 사용된다. 실제 응용 범위는 병이 있는지 여부 탐지, 포도당 수준이 충분한지 여부 탐지 또는 독극물이 있는지 여부 탐지 등 광범위하다.

또한 인간과 마찬가지로 냄새와 많은 부분이 겹친다. 공개 소스 코드는 극히 드물고, 적절히 모델을 학습시키기 위해서는 화학 실험실 또는 그러한 실험을 통해 확보한 데이터가 있어야 한다.

영화 속 장면의 현실화는 아직
지금까지 오감에 대해 알아봤다. 그렇다면 스타 트렉: 더 넥스트 제네레이션에 나오는 커맨더 데이터, 최소한 그보다 머리가 나쁜 사촌인 B4 정도라도(아직 AGI는 없으니) 만들 수 있을까? 아마 아직은 만들지 못할 것이다. 센서와 라이브러리가 있다 해도 모든 분야에서 완전히 학습된 모델이 준비되지는 않았기 때문이다. 또한 막대한 양의 데이터가 필요하며 대부분의 경우 너무 느려서 실시간으로 사용할 수 없다.

아직 인류는 동영상 속 얼굴을 인식하기 위해 연구하는 단계다. 촉각은 “만졌는지 여부를 확인”하는 정도이거나 기타 단일 목적 센서가 대부분이다. 냄새도 비슷한 상황이고 맛은 더 더디다.

대부분의 머신러닝과 딥 러닝과 마찬가지로 단일 목적 애플리케이션(예를 들어 커피가 썩었는지 여부 확인)에서는 AI와 센서가 상당한 수준까지 발전했다. 컴퓨터는 아직 인간의 수준에는 이르지 못했지만 오감을 다 갖추고 있으며 개발자를 위한 무료 및 사유 형태의 구현이 폭넓게 제공되고 있다. editor@itworld.co.kr

X