구멍 뚤린 종이에서 키보드, 마우스를 거쳤다. 이제 음성과 제스처도 어엿한 입력 수단이다. 카네기 멜론 연구진이 시선 예측기(gaze predictor)와 스마트폰의 동작 센서를 결합하는 기술인 아이뮤(EyeMu)를 개발했다.
아이뮤는 사용자가 눈과 간단한 손 움직임으로 스트리밍 음악 등의 몇몇 스마트폰 앱을 제어할 수 있는 시선 추적 도구다. 대학의 인간-컴퓨터 인터랙션 연구소(Human-Computer Interaction Institute) 산하의 미래 인터페이스 그룹(Future Interfaces Group)이 개발한 이 기술은 사용자의 시선을 예측하는 기기와 스마트폰의 동작 센서를 결합한 것이 뼈대다.
이를 이용하면 알림을 보고 잠글 수 있으며, 왼쪽으로 넘겨 알림을 무시하거나 오른쪽으로 넘겨 응답할 수 있게 된다고 연구진을 설명했다. 스마트폰을 앞으로 움직이면 이미지가 확대되고 멀리 보내면 시선 제어가 해제되기도 한다.
한편 구글도 ‘룩 투 스피크’(Look to Speak)라는 무료 앱으로 유사한 기능을 소개한 바 있다. 최근 오스카상 광고에 등장한 이 앱은 장애인을 위해 개발된 시선 제어형 기능이다.
퓨처 인터페이스 그룹의 크리스 해리슨 디렉터는 “구글과 애플 등의 대형 기업들이 이미 시선 예측 기술에 투자하고 있다. 이번 아이뮤의 혁신성은 시선 예측과 스마트폰의 모션 센서를 결합한 것이다. 한층 더 강력한 활용성이 구현된다”라고 말했다.
그는 이어 "오늘날의 스마트폰은 음성이나 두드리지, 클릭과 같이 사용자가 먼저 행동할 때만 응답한다. 스마트폰이 사용자의 시선이나 기타 생체 신호를 분석해 사용자가 원하는 것을 선제적으로 예측할 수 있다면 얼마나 더 유용할 지 상상해보라"라고 덧붙였다.