Offcanvas

������������

블로그 | 애플이 아이폰 카메라에 진지한 이유

조명, (스마트폰) 카메라, 액션 – 그리고 AR! 애플은 아이폰 사진 분야에의 투자에 있어서 기민한 행보를 보여왔다. 스마트폰 카메라의 화질이 3년 이내에 DSLR을 넘어설 것으로 예상되고 있는 가운데, 미래가 더욱 기대된다.  소니 세미컨덕터 솔루션(SSS)의 테루시 시미즈 CEO는 “앞으로 몇 년 내에 (스마트폰) 정지영상 화질이 일안 리플렉스 카메라를 넘어설 것으로 기대한다”라고 말했다. 이미 아이폰이 전문 촬영 분야에서 활용되는 사례가 늘고 있다. 또 머신비전 인텔리전스는 각종 기업 및 산업 분야에 활용되는 티핑 포인트에 도달한 상태다.    아이폰 역사를 살펴보면 애플은 카메라 성능에 중시해왔다. 또 카메라로서의 활용을 지원하기 위해 풍성한 생태계를 구축하기도 했다. 사진 앱은 물론 문서 스캔, AI 기반 사람 인식, 텍스트 식별 및 번역 기능이 대표적이다. 최근에는 비주얼 룩업(Visual Lookup)을 사용해 꽃이나 동물의 이미지를 식별하는 재주를 선보인 바 있다.  애플의 이러한 노력은 스마트폰 처음으로 다중 렌즈와 줌 기능을 구현한 아이폰 7 플러스에서도 특히 두드러졌다.  이미지에 진심 소니는 전 세계 휴대폰 이미지 센서 시장의 42%를 점유하고 있다. 아이폰 13에 탑재된 3개의 IMX 센서를 제조한 기업이기도 하다. 소니는 하이엔드 기기의 이미지 센서가 2024년까지 두 배 정도 커질 것으로 예상한다. 소니에 따르면 이러한 변화는 “새로운 이미징 경험”을 창출할 전망이다. 이러한 경험을 뒷받침하는 요소로는 AI와 슈퍼 HDR에 힘입은 줌 효과가 있다. 아울러 스마트폰에서의 8K 동영상 촬영도 새로운 경험을 구현할 요소다. 이에 더해 진정한 몰입형 3D 경험을 구현하기에 충분한 3D 이미지 캡처 기능도 향후 지원될 것으로 나는 본다.  이러한 미래를 감안할 때 애플의 ‘시네마틱 모드’는 그저 빙산의 일각일 뿐이다. 스마트폰 카메라 센서의 향후 진화는 더욱 혁신적인 활용...

애플 AR 글래스 소니 머신비전

2022.06.02

조명, (스마트폰) 카메라, 액션 – 그리고 AR! 애플은 아이폰 사진 분야에의 투자에 있어서 기민한 행보를 보여왔다. 스마트폰 카메라의 화질이 3년 이내에 DSLR을 넘어설 것으로 예상되고 있는 가운데, 미래가 더욱 기대된다.  소니 세미컨덕터 솔루션(SSS)의 테루시 시미즈 CEO는 “앞으로 몇 년 내에 (스마트폰) 정지영상 화질이 일안 리플렉스 카메라를 넘어설 것으로 기대한다”라고 말했다. 이미 아이폰이 전문 촬영 분야에서 활용되는 사례가 늘고 있다. 또 머신비전 인텔리전스는 각종 기업 및 산업 분야에 활용되는 티핑 포인트에 도달한 상태다.    아이폰 역사를 살펴보면 애플은 카메라 성능에 중시해왔다. 또 카메라로서의 활용을 지원하기 위해 풍성한 생태계를 구축하기도 했다. 사진 앱은 물론 문서 스캔, AI 기반 사람 인식, 텍스트 식별 및 번역 기능이 대표적이다. 최근에는 비주얼 룩업(Visual Lookup)을 사용해 꽃이나 동물의 이미지를 식별하는 재주를 선보인 바 있다.  애플의 이러한 노력은 스마트폰 처음으로 다중 렌즈와 줌 기능을 구현한 아이폰 7 플러스에서도 특히 두드러졌다.  이미지에 진심 소니는 전 세계 휴대폰 이미지 센서 시장의 42%를 점유하고 있다. 아이폰 13에 탑재된 3개의 IMX 센서를 제조한 기업이기도 하다. 소니는 하이엔드 기기의 이미지 센서가 2024년까지 두 배 정도 커질 것으로 예상한다. 소니에 따르면 이러한 변화는 “새로운 이미징 경험”을 창출할 전망이다. 이러한 경험을 뒷받침하는 요소로는 AI와 슈퍼 HDR에 힘입은 줌 효과가 있다. 아울러 스마트폰에서의 8K 동영상 촬영도 새로운 경험을 구현할 요소다. 이에 더해 진정한 몰입형 3D 경험을 구현하기에 충분한 3D 이미지 캡처 기능도 향후 지원될 것으로 나는 본다.  이러한 미래를 감안할 때 애플의 ‘시네마틱 모드’는 그저 빙산의 일각일 뿐이다. 스마트폰 카메라 센서의 향후 진화는 더욱 혁신적인 활용...

2022.06.02

블로그ㅣ애플이 ‘AR’을 위한 혁신적인 플랫폼을 구축 중이다

애플이 개발 중인 접근성 기능의 세부 정보 몇 가지를 공유했다. 이는 애플이 ‘증강현실’을 어떻게 바라보고 있는지 힌트를 제공했다. WWDC 2022에서는 더 자세한 내용을 확인할 수 있으리라 예상된다.  삶에 접근하기 쉽게 하는 것, 현실 데이터로 만드는 것 곧 공개될 접근성 기능 중 2가지(‘문 감지’와 ‘실시간 자막’)는 애플의 (증강현실) 접근법을 시사하는 듯하다.  • ‘문 감지(Door Detection)’: 아이폰 카메라를 사용하여 문을 감지하고 사용자를 안내한다. 또한 문이 열렸는지 닫혔는지 알려주고, (닫혀 있다면) 문을 여는 방법도 알려준다. 아울러 문에 적힌 번호 등도 이해하고 읽어줄 수 있다.  • ‘실시간 자막(Live Captions)’: 애플 기기는 모든 오디오 콘텐츠를 듣고 해당 내용의 실시간 전사본을 제공한다.  둘 다 좋은 기능이지만 조금 더 생각해보면 상당히 놀라운 기능이다. 일단 애플 기기가 들은 내용을 실시간으로 전사할 수 있다면 해당 전사본을 다른 언어로 번역할 수도 있지 않을까?   이것이 의미하는바 애플이 이를 해낼 수 있는 기술을 가지고 있다는 사실을 알 것이다. 웹페이지를 번역할 때마다 이 기술을 사용하지 않는가? 해당 프로세스는 매우 빠르다. 그렇다면 애플 기기에서도 전사본을 제공하도록 확장할 수 있지 않겠는가? 이는 또한 사용자는 모르는 언어를 기기가 구사하도록 하여 다양한 언어로 이뤄지는 복잡한 대화에 참여하게끔 할 수 있다.   ‘문 감지’는 애플이 상당히 오랫동안 탐구해 온 기술을 활용한다. 이 기술은 지금 사용해볼 수 있다. 사진(Photos) 앱을 열고 ‘가로등’ 이미지를 검색하면 가로등이 포함된 모든 사진을 확인할 수 있다. 어떻게 생각할지 모르겠지만 기기가 사진의 항목을 인식할 수 있다면 다른 곳에서도 동일한 머신비전 인텔리전스를 활용하여 무엇이든 인식할 수 있을 것이다.  비전+인텔리전스+컨텍스트=? 다시 말해, 시각장애...

애플 증강현실 접근성 머신비전 WWDC 2022 애플 글래스 시리

2022.05.25

애플이 개발 중인 접근성 기능의 세부 정보 몇 가지를 공유했다. 이는 애플이 ‘증강현실’을 어떻게 바라보고 있는지 힌트를 제공했다. WWDC 2022에서는 더 자세한 내용을 확인할 수 있으리라 예상된다.  삶에 접근하기 쉽게 하는 것, 현실 데이터로 만드는 것 곧 공개될 접근성 기능 중 2가지(‘문 감지’와 ‘실시간 자막’)는 애플의 (증강현실) 접근법을 시사하는 듯하다.  • ‘문 감지(Door Detection)’: 아이폰 카메라를 사용하여 문을 감지하고 사용자를 안내한다. 또한 문이 열렸는지 닫혔는지 알려주고, (닫혀 있다면) 문을 여는 방법도 알려준다. 아울러 문에 적힌 번호 등도 이해하고 읽어줄 수 있다.  • ‘실시간 자막(Live Captions)’: 애플 기기는 모든 오디오 콘텐츠를 듣고 해당 내용의 실시간 전사본을 제공한다.  둘 다 좋은 기능이지만 조금 더 생각해보면 상당히 놀라운 기능이다. 일단 애플 기기가 들은 내용을 실시간으로 전사할 수 있다면 해당 전사본을 다른 언어로 번역할 수도 있지 않을까?   이것이 의미하는바 애플이 이를 해낼 수 있는 기술을 가지고 있다는 사실을 알 것이다. 웹페이지를 번역할 때마다 이 기술을 사용하지 않는가? 해당 프로세스는 매우 빠르다. 그렇다면 애플 기기에서도 전사본을 제공하도록 확장할 수 있지 않겠는가? 이는 또한 사용자는 모르는 언어를 기기가 구사하도록 하여 다양한 언어로 이뤄지는 복잡한 대화에 참여하게끔 할 수 있다.   ‘문 감지’는 애플이 상당히 오랫동안 탐구해 온 기술을 활용한다. 이 기술은 지금 사용해볼 수 있다. 사진(Photos) 앱을 열고 ‘가로등’ 이미지를 검색하면 가로등이 포함된 모든 사진을 확인할 수 있다. 어떻게 생각할지 모르겠지만 기기가 사진의 항목을 인식할 수 있다면 다른 곳에서도 동일한 머신비전 인텔리전스를 활용하여 무엇이든 인식할 수 있을 것이다.  비전+인텔리전스+컨텍스트=? 다시 말해, 시각장애...

2022.05.25

코그넥스, 수아랩 수아킷 통합한 머신비전 SW ‘비전프로 딥러닝’ 출시

코그넥스가 2019년 수아랩 인수 이후 딥러닝 기반 머신비전 소프트웨어 ‘코그넥스 비디(ViDi)’와 수아랩의 딥러닝 소프트웨어 ‘수아킷(SuaKit)’을 통합한 ‘비전프로 딥러닝(VisionPro Deep Learning)’ 출시했다고 밝혔다. 코그넥스의 첫 딥러닝 제품인 ‘코그넥스 비디(ViDi)’는 블루-로케이트(Blue-Locate), 레드-애널라이즈(Red-Analyze), 그린-클래시파이(Green-Classify), 블루-리드(Blue-Read) 등 문자판독(OCR)을 위한 총 4가지 툴로 출발했다.  이후 코그넥스의 룰베이스 기반 소프트웨어 ‘비전프로(VisionPro)’와 ‘비디(ViDi)’가 통합되어 여러 검사 및 개발 툴들을 함께 사용할 수 있게 됨으로써 보다 많은 검사 환경에 폭넓게 적용할 수 있게 되었다. 코그넥스는 국내 딥러닝 스타트업인 수아랩을 인수한 이후에 자사의 딥러닝 기반 소프트웨어인 ‘비디(ViDi)’와 기존 수아랩 딥러닝 소프트웨어 수아킷(SuaKit)을 통합해 ‘비전프로 딥러닝(VisionPro Deep Learning)’을 새롭게 출시했다. 회사에 따르면 ‘비전프로 딥러닝’은 그린-클래스파이(Green-Classify) 툴이 강화되었다. 분류 정확도를 크게 높인 그린-하이 디테일(Green–High Detail) 모드와 빠른 학습과 인퍼런스를 제공하는 그린-포커스드(Green–Focused) 모드를 추가 레이블링 없이 손쉽게 전환할 수 있게 됐다. 레드-애널라이즈(Red-Analyze) 결함 특정 툴 역시 강화되어 레드 하이 디테일(Red–High Detail) 모드를 통해 약 5~25% 더 정확도 높은 결함 크기 및 형상 측정이 가능해졌다. 그리고 레드-포커스드(Red–Focused) 모드는 보다 빠른 학습과 추론 기능을 제공하며, 높은 결함 측정 정확도를 보여준다고 업체 측은 설명했다. 또 비전프로 딥러닝은 룰베이스 기반 소프트웨어인 비전프로 10과 통합되어 딥러닝 런타임 워크스페이스를 비전프...

코그넥스 머신비전 딥러닝

2021.08.18

코그넥스가 2019년 수아랩 인수 이후 딥러닝 기반 머신비전 소프트웨어 ‘코그넥스 비디(ViDi)’와 수아랩의 딥러닝 소프트웨어 ‘수아킷(SuaKit)’을 통합한 ‘비전프로 딥러닝(VisionPro Deep Learning)’ 출시했다고 밝혔다. 코그넥스의 첫 딥러닝 제품인 ‘코그넥스 비디(ViDi)’는 블루-로케이트(Blue-Locate), 레드-애널라이즈(Red-Analyze), 그린-클래시파이(Green-Classify), 블루-리드(Blue-Read) 등 문자판독(OCR)을 위한 총 4가지 툴로 출발했다.  이후 코그넥스의 룰베이스 기반 소프트웨어 ‘비전프로(VisionPro)’와 ‘비디(ViDi)’가 통합되어 여러 검사 및 개발 툴들을 함께 사용할 수 있게 됨으로써 보다 많은 검사 환경에 폭넓게 적용할 수 있게 되었다. 코그넥스는 국내 딥러닝 스타트업인 수아랩을 인수한 이후에 자사의 딥러닝 기반 소프트웨어인 ‘비디(ViDi)’와 기존 수아랩 딥러닝 소프트웨어 수아킷(SuaKit)을 통합해 ‘비전프로 딥러닝(VisionPro Deep Learning)’을 새롭게 출시했다. 회사에 따르면 ‘비전프로 딥러닝’은 그린-클래스파이(Green-Classify) 툴이 강화되었다. 분류 정확도를 크게 높인 그린-하이 디테일(Green–High Detail) 모드와 빠른 학습과 인퍼런스를 제공하는 그린-포커스드(Green–Focused) 모드를 추가 레이블링 없이 손쉽게 전환할 수 있게 됐다. 레드-애널라이즈(Red-Analyze) 결함 특정 툴 역시 강화되어 레드 하이 디테일(Red–High Detail) 모드를 통해 약 5~25% 더 정확도 높은 결함 크기 및 형상 측정이 가능해졌다. 그리고 레드-포커스드(Red–Focused) 모드는 보다 빠른 학습과 추론 기능을 제공하며, 높은 결함 측정 정확도를 보여준다고 업체 측은 설명했다. 또 비전프로 딥러닝은 룰베이스 기반 소프트웨어인 비전프로 10과 통합되어 딥러닝 런타임 워크스페이스를 비전프...

2021.08.18

AI로 결함 '콕'··· 구글, '시각 검사 AI 솔루션' 발표

구글 클라우드가 사람 눈에 의존하는 전통적인 방식의 품질관리보다 정확성과 효율성을 높인, 인공지능과 컴퓨터 비전을 활용한 새로운 '시각 검사 AI 솔루션(Visual Inspection AI solution)'을 블로그를 통해 공개했다. 다양하고 복잡한 생산공정에서 결함이 있는 불량 제품이 생기는 것은 피할 수 없는 일이다. 그래서 생산 마지막 단계에서 결함이 있는 제품을 골라내는 작업은 어떤 제조 분야에서나 꼭 필요한 과정이다. 품질관리가 정확하고 빠르게 이루어지지 않으면, 작업 지연, 수율 감소, 고객 불만, 사후 서비스 발생이나 대량 리콜 등 다양한 문제가 발생한다. 품질관리가 제대로 되지 않으면 생산 효율은 떨어지고, 불필요한 비용은 증가하며, 궁극적으로는 제품과 기업 이미지에도 영향을 준다. 하지만 아무리 숙련된 전문가라고 하더라도 사람의 '눈'을 거쳐야 하는 작업은 실수나 시간적인 한계가 있을 수밖에 없다. 인공지능을 활용한 시각 검사 솔루션은 숙련된 전문가가 필요없기 때문에, 인력 부족이나 작업 시간의 제한이라는 문제를 획기적으로 개선할 수 있다. 구글 클라우드의 '시각 검사 AI 솔루션(Visual Inspection AI solution)'은 불량 제품을 빠르고 정확하게 판별할 수 있는 인공지능과 컴퓨터 비전을 활용한 품질관리 솔루션이다. 대화형 인터페이스를 활용해 빠르게 학습하고 배포할 수 있는 것이 특징이다. (자료 : Google Cloud) 구글 클라우드가 발표한 시각 검사 AI 솔루션은 생산과정에서 사람의 눈으로 제품 결함이나 불량을 판별하는 과정을, 컴퓨터 비전과 머신러닝 기반의 인공지능 기술을 활용해 자동화할 수 있는 솔루션이다. 컴퓨터 비전이나 인공지능을 활용한 공정 및 품질관리 자동화는 이미 널리 사용되고 있지만, 구글 클라우드의 시각 검사 AI 솔루션은 아래와 같은 점을 차별화 포인트로 강조하고 있다. 첫째는 검사 모델 솔루션을 다양한 방법으로 현장에 적용할 수 있다. 네트워크 엣지 또는 온 프레미스에서 시각 검사 ...

시각 검사 AI 솔루션 머신비전 컴퓨터 비전 구글

2021.06.23

구글 클라우드가 사람 눈에 의존하는 전통적인 방식의 품질관리보다 정확성과 효율성을 높인, 인공지능과 컴퓨터 비전을 활용한 새로운 '시각 검사 AI 솔루션(Visual Inspection AI solution)'을 블로그를 통해 공개했다. 다양하고 복잡한 생산공정에서 결함이 있는 불량 제품이 생기는 것은 피할 수 없는 일이다. 그래서 생산 마지막 단계에서 결함이 있는 제품을 골라내는 작업은 어떤 제조 분야에서나 꼭 필요한 과정이다. 품질관리가 정확하고 빠르게 이루어지지 않으면, 작업 지연, 수율 감소, 고객 불만, 사후 서비스 발생이나 대량 리콜 등 다양한 문제가 발생한다. 품질관리가 제대로 되지 않으면 생산 효율은 떨어지고, 불필요한 비용은 증가하며, 궁극적으로는 제품과 기업 이미지에도 영향을 준다. 하지만 아무리 숙련된 전문가라고 하더라도 사람의 '눈'을 거쳐야 하는 작업은 실수나 시간적인 한계가 있을 수밖에 없다. 인공지능을 활용한 시각 검사 솔루션은 숙련된 전문가가 필요없기 때문에, 인력 부족이나 작업 시간의 제한이라는 문제를 획기적으로 개선할 수 있다. 구글 클라우드의 '시각 검사 AI 솔루션(Visual Inspection AI solution)'은 불량 제품을 빠르고 정확하게 판별할 수 있는 인공지능과 컴퓨터 비전을 활용한 품질관리 솔루션이다. 대화형 인터페이스를 활용해 빠르게 학습하고 배포할 수 있는 것이 특징이다. (자료 : Google Cloud) 구글 클라우드가 발표한 시각 검사 AI 솔루션은 생산과정에서 사람의 눈으로 제품 결함이나 불량을 판별하는 과정을, 컴퓨터 비전과 머신러닝 기반의 인공지능 기술을 활용해 자동화할 수 있는 솔루션이다. 컴퓨터 비전이나 인공지능을 활용한 공정 및 품질관리 자동화는 이미 널리 사용되고 있지만, 구글 클라우드의 시각 검사 AI 솔루션은 아래와 같은 점을 차별화 포인트로 강조하고 있다. 첫째는 검사 모델 솔루션을 다양한 방법으로 현장에 적용할 수 있다. 네트워크 엣지 또는 온 프레미스에서 시각 검사 ...

2021.06.23

"컴퓨터 비전 시장 2026년까지 26.3% 성장··· 지도학습 분야 84% ↑"

컴퓨터 비전 시장 규모가 2021년 159억 달러에서 2026년까지 513억 달러로, 연평균 26.3%의 복합성장률을 기록하며 성장할 전망이다. 품질 검사 및 자동화 분야에서의 수요증가, 비전통적이고 새로운 애플리케이션에서의 수요 증가, 산업 자동화 및 통합을 지원하기 수요 증가 등이 성장을 주도할 것으로 예상된다. 마켓앤마켓이 '2026년까지 컴퓨터 비전 시장의 AI(AI in Computer Vision Market, Global Forecast to 2026)' 보고서를 발표했다. 보고서는 컴퓨터 비전 관련 산업을 구성 요소, 기계 학습 모델, 응용프로그램, 최종 사용 산업, 지역 등으로 나누어 조사를 진행했다. 컴퓨터 비전이 인공지능 시장에서 꾸준한 성장세를 유지할 것으로 전망했지만 클라우드 기반 이미지 처리 및 분석에서의 보안 문제는 성장을 제한하는 요소라고 지적했다. 컴퓨터 비전에서의 AI 시장 규모가 2026년까지 연평균 26.3%의 성장률을 기록할 전망이다. 생산 및 품질 관리, 의료 분야, 자율 주행, 소비자 및 가전 분야에서의 컴퓨터 비전 시스템과 솔루션 수요가 증가하고 있다. (자료 : MarketsandMarkets) 컴퓨터 비전에 대한 수요는 다양한 분야에서 증가하고 있다. 특히 품질 검사 및 자동화에 대한 수요가 증가하면서, 제조 공정에서의 컴퓨터 비전 솔루션 채택이 증가하고 있다. 자동화된 생산 시설에 컴퓨터 비전을 적용할 경우, 생산 과정에서 시간과 비용을 절약할 수 있기 때문이다. 아울러 결합이나 불량 제품을 선별 효율을 높여, 고객 만족도를 높이는 데도 도움이 된다. 특히 비전통적이고 새로운 분야에서 컴퓨터 비전을 활용한 시스템과 솔루션에 대한 수요가 빠르게 증가하고 있다고 보고서는 밝히고 있다. 소매, 의료, 자동차 안전, 감시, 증강 현실, 3D 모델 등을 위한 다양한 응용 프로그램 개발 수단을 활용해, 의료 산업, 교통 관리, 보안 및 감시, 우편 및 물류, 문서 처리 등의 다양한 분야에서 컴퓨터 비전 관...

컴퓨터 비전 지도학습 마켓앤마켓 머신비전

2021.06.14

컴퓨터 비전 시장 규모가 2021년 159억 달러에서 2026년까지 513억 달러로, 연평균 26.3%의 복합성장률을 기록하며 성장할 전망이다. 품질 검사 및 자동화 분야에서의 수요증가, 비전통적이고 새로운 애플리케이션에서의 수요 증가, 산업 자동화 및 통합을 지원하기 수요 증가 등이 성장을 주도할 것으로 예상된다. 마켓앤마켓이 '2026년까지 컴퓨터 비전 시장의 AI(AI in Computer Vision Market, Global Forecast to 2026)' 보고서를 발표했다. 보고서는 컴퓨터 비전 관련 산업을 구성 요소, 기계 학습 모델, 응용프로그램, 최종 사용 산업, 지역 등으로 나누어 조사를 진행했다. 컴퓨터 비전이 인공지능 시장에서 꾸준한 성장세를 유지할 것으로 전망했지만 클라우드 기반 이미지 처리 및 분석에서의 보안 문제는 성장을 제한하는 요소라고 지적했다. 컴퓨터 비전에서의 AI 시장 규모가 2026년까지 연평균 26.3%의 성장률을 기록할 전망이다. 생산 및 품질 관리, 의료 분야, 자율 주행, 소비자 및 가전 분야에서의 컴퓨터 비전 시스템과 솔루션 수요가 증가하고 있다. (자료 : MarketsandMarkets) 컴퓨터 비전에 대한 수요는 다양한 분야에서 증가하고 있다. 특히 품질 검사 및 자동화에 대한 수요가 증가하면서, 제조 공정에서의 컴퓨터 비전 솔루션 채택이 증가하고 있다. 자동화된 생산 시설에 컴퓨터 비전을 적용할 경우, 생산 과정에서 시간과 비용을 절약할 수 있기 때문이다. 아울러 결합이나 불량 제품을 선별 효율을 높여, 고객 만족도를 높이는 데도 도움이 된다. 특히 비전통적이고 새로운 분야에서 컴퓨터 비전을 활용한 시스템과 솔루션에 대한 수요가 빠르게 증가하고 있다고 보고서는 밝히고 있다. 소매, 의료, 자동차 안전, 감시, 증강 현실, 3D 모델 등을 위한 다양한 응용 프로그램 개발 수단을 활용해, 의료 산업, 교통 관리, 보안 및 감시, 우편 및 물류, 문서 처리 등의 다양한 분야에서 컴퓨터 비전 관...

2021.06.14

칼럼ㅣ애플의 AR 글래스 그리고 ‘애플케어’라는 미래

빅 테크 기업들이 너도나도 헬스케어에 손을 뻗고 있는 가운데, 애플이 머신비전(Machine Vision)으로 무엇을 하는지 계속해서 주시할 필요가 있다. 또 다른 산업 부문을 혁신하려는 계획을 암시할 수도 있어서다.    증강현실? 아니면 진짜 증강? 애플이 새로운 플랫폼을 소개할 때마다 항상 흥미롭다. 이러한 플랫폼이 새로운 산업 생태계를 구축하는 데 영향을 미치기 때문이다. 따라서 비즈니스를 추진할 새로운 분야를 찾거나 혹은 기존 비즈니스에 새로운 접근방식을 취하고 싶은 기업이라면 누구나 애플의 AR 글래스 계획을 둘러싸고 계속되는 추측에 관심이 있을 터다.  지난 3월 7일 발표된 궈밍지의 예측에 따르면 이전에 공개됐던 내용과 어느 정도 일맥상통하지만 애플이 세 가지 버전(헤드셋, 글래스, 콘택트렌즈)으로 AR 및 MR 로드맵을 구상하고 있다는 주장이 제기됐다.  --> 칼럼ㅣ'애플 글래스’가 온다··· 또다시 ‘AR’에 주목해야 할 이유 “2022년에는 AR 헤드셋” 그에 따르면 애플의 로드맵은 ‘혼합현실’ 헤드셋으로 시작되며, 아마도 2022년에 출시될 예정이다. 이 헤드셋의 무게는 약 142g(차이가 있을 순 있다), 가격은 미화 약 1,000달러 수준으로 예측됐다. 또한 소니의 마이크로-OLED 디스플레이와 여러 광 모듈을 탑재해 몰입적인 AR 및 VR 경험 모두 제공할 전망이다. 이는 몰입적인 브랜디드 콘텐츠, 가상 쇼핑, 협업 경험을 제공할 수 있는 방법을 찾는 기업들에게 유용할 것이다.  “2025년에는 AR 글래스”  헤드셋에 이어서 2025년경에는 어디서나 착용할 수 있는 AR 글래스가 출시될 것으로 예상됐다. AR 글래스는 사용자의 주변 환경에 유용한 정보를 레이어링해 진정한 증강현실 경험을 제공할 것이다. 이는 실내 매핑, 소매업 등에서 큰 이슈가 될 것이며, 유용한 정보를 오버레이하는 것이 도움을 줄 수 있는 건강, 제조, 엔지니어링 등에서 가치 있게 쓰...

애플 증강현실 혼합현실 AR 글래스 AR 헤드셋 AR 렌즈 머신비전 애플케어 헬스케어 애플워치 건강 데이터

2021.03.11

빅 테크 기업들이 너도나도 헬스케어에 손을 뻗고 있는 가운데, 애플이 머신비전(Machine Vision)으로 무엇을 하는지 계속해서 주시할 필요가 있다. 또 다른 산업 부문을 혁신하려는 계획을 암시할 수도 있어서다.    증강현실? 아니면 진짜 증강? 애플이 새로운 플랫폼을 소개할 때마다 항상 흥미롭다. 이러한 플랫폼이 새로운 산업 생태계를 구축하는 데 영향을 미치기 때문이다. 따라서 비즈니스를 추진할 새로운 분야를 찾거나 혹은 기존 비즈니스에 새로운 접근방식을 취하고 싶은 기업이라면 누구나 애플의 AR 글래스 계획을 둘러싸고 계속되는 추측에 관심이 있을 터다.  지난 3월 7일 발표된 궈밍지의 예측에 따르면 이전에 공개됐던 내용과 어느 정도 일맥상통하지만 애플이 세 가지 버전(헤드셋, 글래스, 콘택트렌즈)으로 AR 및 MR 로드맵을 구상하고 있다는 주장이 제기됐다.  --> 칼럼ㅣ'애플 글래스’가 온다··· 또다시 ‘AR’에 주목해야 할 이유 “2022년에는 AR 헤드셋” 그에 따르면 애플의 로드맵은 ‘혼합현실’ 헤드셋으로 시작되며, 아마도 2022년에 출시될 예정이다. 이 헤드셋의 무게는 약 142g(차이가 있을 순 있다), 가격은 미화 약 1,000달러 수준으로 예측됐다. 또한 소니의 마이크로-OLED 디스플레이와 여러 광 모듈을 탑재해 몰입적인 AR 및 VR 경험 모두 제공할 전망이다. 이는 몰입적인 브랜디드 콘텐츠, 가상 쇼핑, 협업 경험을 제공할 수 있는 방법을 찾는 기업들에게 유용할 것이다.  “2025년에는 AR 글래스”  헤드셋에 이어서 2025년경에는 어디서나 착용할 수 있는 AR 글래스가 출시될 것으로 예상됐다. AR 글래스는 사용자의 주변 환경에 유용한 정보를 레이어링해 진정한 증강현실 경험을 제공할 것이다. 이는 실내 매핑, 소매업 등에서 큰 이슈가 될 것이며, 유용한 정보를 오버레이하는 것이 도움을 줄 수 있는 건강, 제조, 엔지니어링 등에서 가치 있게 쓰...

2021.03.11

'데이터 라벨링 노동에서 해방?' 페이스북, 자기지도학습 모델 공개

페이스북이 ‘자기지도학습’ 방식을 통해 무작위 이미지를 학습할 수 있도록 고안된 새 컴퓨터 비전 모델을 공개했다. 모델을 테스트한 결과 이미지 인식 정확도도 높은 수준이라고 페이스북은 밝혔다.  4일(현지시간) 페이스북은 블로그를 통해 SEER(SElf-SupERvised)라는 이름의 자사 컴퓨터 비전 모델을 공개했다. 사전 라벨링이나 주석 첨부 등의 분류 작업이 되지 않은 무작위 이미지를 학습시킨 결과 최신 자기지도학습 방식의 모델을 뛰어넘는 정확도를 보였다는 설명이다.    페이스북에 따르면 SEER는 인스타그램의 공개 이미지 10억 장을 학습했다. 그 결과, 대규모 이미지 데이터베이스인 이미지넷의 벤치마크상 84.2%의 top-1 정확도를 보였다.  자기지도학습은 컴퓨터 비전 연구 분야에서 최근 주목받고 있는 AI 학습 모델이다. 이 모델은 정제되지 않은 채 입력되는 데이터를 실시간으로 즉각 처리해 학습하는 것을 특징으로 한다.  일반적으로 컴퓨터 비전 모델을 학습시키는 방법과 달리, 자기지도학습은 사람이 데이터를 일일이 라벨링하는 데 드는 수고나 비용 등을 줄일 수 있다. 페이스북은 "자기지도학습 모델을 통해 데이터 큐레이션 과정에서 인간의 편향성이 개입될 여지를 줄일 수 있다"라고 전했다. 또 "자기지도학습 기술의 발전을 가속화시키기 위해 SEER와 관련된 세부사항을 최신 자기지도학습 관련 오픈소스인 VISSL에 공유할 것"이라고 전했다.  페이스북 AI 리서치의 소프트웨어 엔지니어인 프리야 고얄은 “SEER를 이용해 인터넷상의 랜덤 이미지를 대규모로 학습시킴으로써 컴퓨터 비전 분야를 발전시킬 초석을 놓을 수 있게 됐다”라고 전했다. ciokr@idg.co.kr

페이스북 자기지도학습 SEER 컴퓨터비전 머신비전 이미지 이미지넷

2021.03.05

페이스북이 ‘자기지도학습’ 방식을 통해 무작위 이미지를 학습할 수 있도록 고안된 새 컴퓨터 비전 모델을 공개했다. 모델을 테스트한 결과 이미지 인식 정확도도 높은 수준이라고 페이스북은 밝혔다.  4일(현지시간) 페이스북은 블로그를 통해 SEER(SElf-SupERvised)라는 이름의 자사 컴퓨터 비전 모델을 공개했다. 사전 라벨링이나 주석 첨부 등의 분류 작업이 되지 않은 무작위 이미지를 학습시킨 결과 최신 자기지도학습 방식의 모델을 뛰어넘는 정확도를 보였다는 설명이다.    페이스북에 따르면 SEER는 인스타그램의 공개 이미지 10억 장을 학습했다. 그 결과, 대규모 이미지 데이터베이스인 이미지넷의 벤치마크상 84.2%의 top-1 정확도를 보였다.  자기지도학습은 컴퓨터 비전 연구 분야에서 최근 주목받고 있는 AI 학습 모델이다. 이 모델은 정제되지 않은 채 입력되는 데이터를 실시간으로 즉각 처리해 학습하는 것을 특징으로 한다.  일반적으로 컴퓨터 비전 모델을 학습시키는 방법과 달리, 자기지도학습은 사람이 데이터를 일일이 라벨링하는 데 드는 수고나 비용 등을 줄일 수 있다. 페이스북은 "자기지도학습 모델을 통해 데이터 큐레이션 과정에서 인간의 편향성이 개입될 여지를 줄일 수 있다"라고 전했다. 또 "자기지도학습 기술의 발전을 가속화시키기 위해 SEER와 관련된 세부사항을 최신 자기지도학습 관련 오픈소스인 VISSL에 공유할 것"이라고 전했다.  페이스북 AI 리서치의 소프트웨어 엔지니어인 프리야 고얄은 “SEER를 이용해 인터넷상의 랜덤 이미지를 대규모로 학습시킴으로써 컴퓨터 비전 분야를 발전시킬 초석을 놓을 수 있게 됐다”라고 전했다. ciokr@idg.co.kr

2021.03.05

CJ올리브네트웍스-코그넥스, AI 머신비전 사업위해 MOU 체결

CJ올리브네트웍스가 AI 머신비전 개발 기업 코그넥스와 업무협약을 체결했다고 밝혔다. AI 머신비전은 특수 광학 장치를 사용한 산업용 카메라의 디지털 센서를 통해 이미지를 수집해 상품의 불량 여부를 판단하는 하드웨어와 소프트웨어의 조합이다. CJ올리브네트웍스는 이번 협약을 통해 코그넥스의 2D·3D 비전 카메라와 이미지 기반 바코드 리더기 등 고성능 비전 장비를 공급받고, 장비 안에 들어가는 이미지 데이터 분석, AI 모델링 등 AI 솔루션 분야의 기술 개발에 나설 예정이다. 이로써 CJ올리브네트웍스는 스마트팩토리 솔루션의 AI 비전 검사 기술을 개발하고 양사의 대내외 온·오프라인 유통채널을 활용한 시스템 지원 및 영업 확대에 협력함으로써 고객사에 더욱 통합적인 서비스를 제공할 수 있다고 밝혔다.   특히 기존에는 육안으로 하던 불량검사, 제품식별, 제조일자 확인 등의 작업을 AI 머신비전이 대체함에 따라 불량검출률을 향상시키고, 공정 효율화를 더 높일 수 있을 것으로 기대하고 있다.  CJ올리브네트웍스 차인혁 대표는 “CJ올리브네트웍스의 소프트웨어 및 솔루션 개발 역량과 코그넥스의 고성능 머신비전 장비가 더해져 식품 제조 기업들의 공정 효율화를 돕고 AI 머신비전 사업 활성화에 기여할 것”이라고 말했다. ciokr@idg.co.kr

CJ올리브네트웍스 코그넥스 AI 머신비전

2020.12.21

CJ올리브네트웍스가 AI 머신비전 개발 기업 코그넥스와 업무협약을 체결했다고 밝혔다. AI 머신비전은 특수 광학 장치를 사용한 산업용 카메라의 디지털 센서를 통해 이미지를 수집해 상품의 불량 여부를 판단하는 하드웨어와 소프트웨어의 조합이다. CJ올리브네트웍스는 이번 협약을 통해 코그넥스의 2D·3D 비전 카메라와 이미지 기반 바코드 리더기 등 고성능 비전 장비를 공급받고, 장비 안에 들어가는 이미지 데이터 분석, AI 모델링 등 AI 솔루션 분야의 기술 개발에 나설 예정이다. 이로써 CJ올리브네트웍스는 스마트팩토리 솔루션의 AI 비전 검사 기술을 개발하고 양사의 대내외 온·오프라인 유통채널을 활용한 시스템 지원 및 영업 확대에 협력함으로써 고객사에 더욱 통합적인 서비스를 제공할 수 있다고 밝혔다.   특히 기존에는 육안으로 하던 불량검사, 제품식별, 제조일자 확인 등의 작업을 AI 머신비전이 대체함에 따라 불량검출률을 향상시키고, 공정 효율화를 더 높일 수 있을 것으로 기대하고 있다.  CJ올리브네트웍스 차인혁 대표는 “CJ올리브네트웍스의 소프트웨어 및 솔루션 개발 역량과 코그넥스의 고성능 머신비전 장비가 더해져 식품 제조 기업들의 공정 효율화를 돕고 AI 머신비전 사업 활성화에 기여할 것”이라고 말했다. ciokr@idg.co.kr

2020.12.21

MS, '자동 이미지 캡션' 고도화··· "2배 더 정확"

사진 하단의 캡션(Caption)은 종종 필수요소다. 사진에 대한 설명을 첨부한 경우와 그렇지 않은 경우는, 의미를 전달하는 시간이나 정확성에서 많은 차이가 난다. 사진에 대한 설명이 없다면 내용을 파악하기 힘들거나 불가능한 경우도 종종 존재한다. 사진을 사용한 목적이 느낌이 아닌 정보의 전달이라면, 캡션의 역할과 중요성은 더욱 커진다. 마이크로소프트 연구팀이 "사람이 작성하는 설명보다 정확한 사진 캡션을 생성하는 인공지능" 시스템을 구축했다고 블로그를 통해 공개했다. 이번에 개발한 새로운 모델은 애저(Azure) 인공지능 서비스의 일부인 ‘애저 코그너티브 서비스 컴퓨터 비전(Azure Cognitive Services Computer Vision)’ 제품을 통해 고객들에게 제공될 예정이다.   이번에 공개된 인공지능 자동 캡션 기능을 애저 환경에서 사용할 수 있게 되면, 개발자들은 이를 활용해 서비스 접근성을 향상할 수 있게 된다. 또한 '시잉 AI(Seeing AI)’에 이를 통합하고 있으며, 올해 말이 되면 윈도우와 맥 환경의 마이크로소프트 워드(Word)와 아웃룩(Outlook), 윈도우 및 맥과 웹(Web) 환경의 파워포인트(PowerPoint) 용으로 출시할 예정이다. 마이크로소프트는 "자동 이미지 캡션을 사용하면 검색 결과로 반환된 사진부터 프레젠테이션에 포함된 이미지에 이르기까지, 모든 이미지의 중요한 콘텐츠에 액세스할 수 있다. 이번에 공개한 연구를 통해 이러한 결과를 개선할 수 있지만, 시스템이 매번 완벽한 결과를 반환한다는 의미는 아니다”라고 밝혔다. 이전보다 자동 캡션 기능의 성능이 향상된 것은 맞지만 때로는 기대에 못 미치는 경우도 있다는 의미다. 이러한 인공지능 기반의 자동캡션 기능은 활용 분야가 다양하고 필요성도 계속해서 증가하고 있다. 예를 들어 웹이나 소셜 미디어, 전자 문서 등에 첨부된 이미지에는 대체 텍스트를 포함하는 것으로 접근성을 크게 높일 수 있다. 그래서 시각 장애인이 콘텐츠에 접근하고 이해하는 데 대...

마이크로소프트 머신비전 시잉AI 자동 캡션 애저 코그너티브 서비스 컴퓨터 비전

2020.10.16

사진 하단의 캡션(Caption)은 종종 필수요소다. 사진에 대한 설명을 첨부한 경우와 그렇지 않은 경우는, 의미를 전달하는 시간이나 정확성에서 많은 차이가 난다. 사진에 대한 설명이 없다면 내용을 파악하기 힘들거나 불가능한 경우도 종종 존재한다. 사진을 사용한 목적이 느낌이 아닌 정보의 전달이라면, 캡션의 역할과 중요성은 더욱 커진다. 마이크로소프트 연구팀이 "사람이 작성하는 설명보다 정확한 사진 캡션을 생성하는 인공지능" 시스템을 구축했다고 블로그를 통해 공개했다. 이번에 개발한 새로운 모델은 애저(Azure) 인공지능 서비스의 일부인 ‘애저 코그너티브 서비스 컴퓨터 비전(Azure Cognitive Services Computer Vision)’ 제품을 통해 고객들에게 제공될 예정이다.   이번에 공개된 인공지능 자동 캡션 기능을 애저 환경에서 사용할 수 있게 되면, 개발자들은 이를 활용해 서비스 접근성을 향상할 수 있게 된다. 또한 '시잉 AI(Seeing AI)’에 이를 통합하고 있으며, 올해 말이 되면 윈도우와 맥 환경의 마이크로소프트 워드(Word)와 아웃룩(Outlook), 윈도우 및 맥과 웹(Web) 환경의 파워포인트(PowerPoint) 용으로 출시할 예정이다. 마이크로소프트는 "자동 이미지 캡션을 사용하면 검색 결과로 반환된 사진부터 프레젠테이션에 포함된 이미지에 이르기까지, 모든 이미지의 중요한 콘텐츠에 액세스할 수 있다. 이번에 공개한 연구를 통해 이러한 결과를 개선할 수 있지만, 시스템이 매번 완벽한 결과를 반환한다는 의미는 아니다”라고 밝혔다. 이전보다 자동 캡션 기능의 성능이 향상된 것은 맞지만 때로는 기대에 못 미치는 경우도 있다는 의미다. 이러한 인공지능 기반의 자동캡션 기능은 활용 분야가 다양하고 필요성도 계속해서 증가하고 있다. 예를 들어 웹이나 소셜 미디어, 전자 문서 등에 첨부된 이미지에는 대체 텍스트를 포함하는 것으로 접근성을 크게 높일 수 있다. 그래서 시각 장애인이 콘텐츠에 접근하고 이해하는 데 대...

2020.10.16

‘산불 재발 막겠다’ 캘리포니아 전력 기업의 AI 머신비전 활용법

PG&E가 고해상도 항공사진과 컴퓨터 비전을 조합해 산불 예상 솔루션을 개발하고 지속적으로 고도화하고 있다. 2년 전의 실수를 반복하지 않는 한편, 새로운 활용 가능성을 창출하기 위해서다.  2018년 PG&E가 소유한 전기 송전선 문제로 산불이 발생했다. 이 산불은 북 캘리포니아 뷰트 카운티 전체로 확산되어 85명이 사망하고 1만 9,000채에 가까운 건물이 피해를 입었다. 올해 6월 PG&E CEO 겸 사장 빌 존슨은 뷰트 카운티 고등 법원에서 84명에 대한 과실치사와 불법 방화 혐의에 대해 회사를 대신하여 책임을 인정했다. 북 캘리포니아 520만 가구에 전기를 제공하는 PG&E는 화재 이후 AI 기술에 기반한 해법을 개발하기 시작했다. 컴퓨터 비전을 활용해 화재 발생 위험이 높은 지역을 파악하는 것이 뼈대였다. 셜록 스위트(Sherlock Suite)라고 명명된 이 솔루션은 현재 PG&E의 현장 장비 점검 자동화에도 일조하고 있다. PG&E 셜록 스위트 제품 관리자 쿠날 다타는 “셜록 스위트를 사용하면 데스크톱 앞의 점검 담당자가 잠재적인 장비 문제를 고해상도 이미지로 표현할 수 있다. 이를 통해 컴퓨터 비전 모델의 훈련이 강화됨으로써, 잠재적 문제를 자동으로 탐지할 수 있게 된다. 또 메타데이터가 추가되어 전사적인 이미지 검색이 가능해진다”라고 전했다. PG&E는 셜록 스위트로  CIO 100 IT 우수상을 수상했다. 점검 자동화 화재 발생 이후 PG&E는 항공 사진을 활용해 전기 송전탑 5만 대의 이미지를 200만 장 이상 캡처했다. 또 이미지를 검토할 점검 담당자를 전국에서 150명 채용했다. 처음에 진행된 점검 작업에는 공유 드라이브 상의 폴더와 종이로 된 매뉴얼, 구형 맵 시스템, 그리고 작업 추적용 엑셀 스프레드시트가 사용됐다. 다타에 따르면 ‘산불 안전 점검 프로그램’(WSIP ; Wildfire Safety Inspection Program)은 PG&am...

PG&E 캘리포니아 머신비전 컴퓨터 비전 산불 전력

2020.08.21

PG&E가 고해상도 항공사진과 컴퓨터 비전을 조합해 산불 예상 솔루션을 개발하고 지속적으로 고도화하고 있다. 2년 전의 실수를 반복하지 않는 한편, 새로운 활용 가능성을 창출하기 위해서다.  2018년 PG&E가 소유한 전기 송전선 문제로 산불이 발생했다. 이 산불은 북 캘리포니아 뷰트 카운티 전체로 확산되어 85명이 사망하고 1만 9,000채에 가까운 건물이 피해를 입었다. 올해 6월 PG&E CEO 겸 사장 빌 존슨은 뷰트 카운티 고등 법원에서 84명에 대한 과실치사와 불법 방화 혐의에 대해 회사를 대신하여 책임을 인정했다. 북 캘리포니아 520만 가구에 전기를 제공하는 PG&E는 화재 이후 AI 기술에 기반한 해법을 개발하기 시작했다. 컴퓨터 비전을 활용해 화재 발생 위험이 높은 지역을 파악하는 것이 뼈대였다. 셜록 스위트(Sherlock Suite)라고 명명된 이 솔루션은 현재 PG&E의 현장 장비 점검 자동화에도 일조하고 있다. PG&E 셜록 스위트 제품 관리자 쿠날 다타는 “셜록 스위트를 사용하면 데스크톱 앞의 점검 담당자가 잠재적인 장비 문제를 고해상도 이미지로 표현할 수 있다. 이를 통해 컴퓨터 비전 모델의 훈련이 강화됨으로써, 잠재적 문제를 자동으로 탐지할 수 있게 된다. 또 메타데이터가 추가되어 전사적인 이미지 검색이 가능해진다”라고 전했다. PG&E는 셜록 스위트로  CIO 100 IT 우수상을 수상했다. 점검 자동화 화재 발생 이후 PG&E는 항공 사진을 활용해 전기 송전탑 5만 대의 이미지를 200만 장 이상 캡처했다. 또 이미지를 검토할 점검 담당자를 전국에서 150명 채용했다. 처음에 진행된 점검 작업에는 공유 드라이브 상의 폴더와 종이로 된 매뉴얼, 구형 맵 시스템, 그리고 작업 추적용 엑셀 스프레드시트가 사용됐다. 다타에 따르면 ‘산불 안전 점검 프로그램’(WSIP ; Wildfire Safety Inspection Program)은 PG&am...

2020.08.21

블로그 | 팀쿡은 왜 "애플이 의료분야에 큰 공헌할 것"이라 말할까

애플 CEO 팀 쿡은 애플이 인류에 가장 크게 공헌할 분야는 건강이라고 주장한다. 그리고 애플은 이를 현실로 만들기 위한 다양한 단계를 차근차근 밟아가고 있다.    언제 기여할 수 있을 것인가? 팀 쿡은 애플 워치의 심전도(ECG) 기능과 애플의 건강 관련 리서치 툴, 소프트웨어 기반 솔루션을 자주 언급한다. (소프트웨어 기반 솔루션이란 건강 앱, 활동 측정, 주기 추적, 의학 앱, 최신 센서 설계 등을 의미한다.) 이러한 모든 툴은 유용하다. 하지만 툴에 접근할 수 있는 사용자는 전세계적으로 볼 때 소수에 불과하다. 팀쿡의 거창한 말처럼 그것들이 진짜 인류에 크게 기여할까? 게다가 애플의 비즈니스는 회사의 혁신과 가치를 내세워 고가전략을 구사한다. 이 때문에 비싼 가격을 기꺼이 지불할 수 있는 소수의 고객만이 제품을 사용한다. 그런데도 왜 팀 쿡은 거창한 주장을 계속해서 언급하는 것일까? 애플이 디바이스 제조가 아닌 좀 더 심오한 것에 공을 들이고 있다고 생각할 수밖에 없다.  2016년 팀 쿡은 “건강은 전 세계적으로 주요한 쟁점이다. 헬스케어의 다음 단계로 도약하기 위해서는 단순성과 새로운 관점이 관건이라고 우리는 보고 있다”라고 말한 바 있다.  몇 년이 지난 지금, 애플은 사용자가 건강을 쉽게 관리할 수 있는 소프트웨어 솔루션을 점진적으로 선보이고 있다. 애플이 최근 공개한 심전도(ECG) 기능이 좋은 사례다.  그러나 지금까지 애플이 건강을 모니터링하고 관리하는 툴에 초점을 맞췄다면, 향후 애플은 헬스케어를 혁신할 더 영향력 있는 방식을 찾을 가능성이 높다.  기술로 증강되는 헬스케어 솔루션 애플은 이미 ‘건강 기록 앱(Health Records app)’을 통해 헬스케어 혁신이라는 방향으로 큰 걸음을 나아갔다. 이 앱은 사용자 스스로 자신의 건강 데이터를 통제할 수 있도록 한다.  그러나 애플은 기존 기술을 이용해 새로운 헬스 솔루션들을 제공할 잠재력이 있다....

애플 머신비전 애플워치 3D프린팅 팀쿡 헬스케어 원격진료 5G 증강현실 아이폰 모바일기기

2019.12.17

애플 CEO 팀 쿡은 애플이 인류에 가장 크게 공헌할 분야는 건강이라고 주장한다. 그리고 애플은 이를 현실로 만들기 위한 다양한 단계를 차근차근 밟아가고 있다.    언제 기여할 수 있을 것인가? 팀 쿡은 애플 워치의 심전도(ECG) 기능과 애플의 건강 관련 리서치 툴, 소프트웨어 기반 솔루션을 자주 언급한다. (소프트웨어 기반 솔루션이란 건강 앱, 활동 측정, 주기 추적, 의학 앱, 최신 센서 설계 등을 의미한다.) 이러한 모든 툴은 유용하다. 하지만 툴에 접근할 수 있는 사용자는 전세계적으로 볼 때 소수에 불과하다. 팀쿡의 거창한 말처럼 그것들이 진짜 인류에 크게 기여할까? 게다가 애플의 비즈니스는 회사의 혁신과 가치를 내세워 고가전략을 구사한다. 이 때문에 비싼 가격을 기꺼이 지불할 수 있는 소수의 고객만이 제품을 사용한다. 그런데도 왜 팀 쿡은 거창한 주장을 계속해서 언급하는 것일까? 애플이 디바이스 제조가 아닌 좀 더 심오한 것에 공을 들이고 있다고 생각할 수밖에 없다.  2016년 팀 쿡은 “건강은 전 세계적으로 주요한 쟁점이다. 헬스케어의 다음 단계로 도약하기 위해서는 단순성과 새로운 관점이 관건이라고 우리는 보고 있다”라고 말한 바 있다.  몇 년이 지난 지금, 애플은 사용자가 건강을 쉽게 관리할 수 있는 소프트웨어 솔루션을 점진적으로 선보이고 있다. 애플이 최근 공개한 심전도(ECG) 기능이 좋은 사례다.  그러나 지금까지 애플이 건강을 모니터링하고 관리하는 툴에 초점을 맞췄다면, 향후 애플은 헬스케어를 혁신할 더 영향력 있는 방식을 찾을 가능성이 높다.  기술로 증강되는 헬스케어 솔루션 애플은 이미 ‘건강 기록 앱(Health Records app)’을 통해 헬스케어 혁신이라는 방향으로 큰 걸음을 나아갔다. 이 앱은 사용자 스스로 자신의 건강 데이터를 통제할 수 있도록 한다.  그러나 애플은 기존 기술을 이용해 새로운 헬스 솔루션들을 제공할 잠재력이 있다....

2019.12.17

"인공지능으로 이미지 및 동영상 분석"··· AWS, '아마존 레코그니션' 서울 리전에서 론칭

인공지능 이미지 분석 및 동영상 분석서비스인 '아마존 레코그니션'(Amazon Rekognition)을 이제 서울 리전에서도 이용할 수 있게 됐다고 아마존웹서비스(Amazon Web Services 이하 AWS)가 10일 블로그를 통해 밝혔다. 아마존 레코그니션은 애플리케이션에 이미지와 비디오 분석 기능을 쉽게 추가할 수 있게 해주는 딥러닝 기반 서비스다. 아마존 레코그니션은 사진 및 동영상을 레코그니션 API(Rekognition API)에 기반해 객체, 사람, 텍스트, 장면 및 동작을 식별하고 부적절한 콘텐츠를 탐지할 수 있도록 하는 서비스다. 또 이미지와 비디오에서 얼굴 분석 및 얼굴 인식 기능을 지원한다. 이를 통해 사용자 확인, 인원 계산 및 공공 안전 등 다양한 사용 사례에서 얼굴을 탐지, 분석 및 비교할 수 있다. 회사에 따르면 아마존 레코그니션은 아마존 내부의 인공지능 연구자들이 매일 수십억 개의 이미지와 비디오를 매일 분석할 목적으로 개발한 것으로, 이미 성능이 검증되었을 뿐만 아니라 확장성까지 뛰어난 딥러닝 기술을 기반으로 하고 있다. 특히 일반 사용자나 개발자들이 전문적인 인공지능 지식이 없이도 간단한 API 호출로도 손쉽게 기능을 활용할 수 있다고 회사 측은 전했다. 기아자동차는 AWS의 AI 서비스인 아마존 레코그니션과 아마존 폴리(Amazon Polly)를 사용하여 얼굴 분석 및 음성 서비스를 이용한 자동차 로그인 기능을 선보인 바 있다. CES 2018에서 소개된 이 기능은 운전자를 인식하여 환영 메시지를 음성으로 전달하고 개인 특성에 따라 차량 설정을 조정할 수 있다. 또 기아자동차는 럭셔리 디지털쇼룸인 ‘BEAT 360’에서 방문 고객들을 위하여 아마존 레코그니션을 사용했다. 이 쇼케이스에서 레코그니션은 방문고객의 연령, 성별, 얼굴 표정에 따라 컬러 테라피(color therapy) 및 음악 추천 서비스를 제공했다. KPOP 관련 콘서트 예매, 굿즈 구매 등을...

AWS 안면 얼굴 머신비전 비디오 분석 이미지 분석 아마존 레코그니션

2018.08.10

인공지능 이미지 분석 및 동영상 분석서비스인 '아마존 레코그니션'(Amazon Rekognition)을 이제 서울 리전에서도 이용할 수 있게 됐다고 아마존웹서비스(Amazon Web Services 이하 AWS)가 10일 블로그를 통해 밝혔다. 아마존 레코그니션은 애플리케이션에 이미지와 비디오 분석 기능을 쉽게 추가할 수 있게 해주는 딥러닝 기반 서비스다. 아마존 레코그니션은 사진 및 동영상을 레코그니션 API(Rekognition API)에 기반해 객체, 사람, 텍스트, 장면 및 동작을 식별하고 부적절한 콘텐츠를 탐지할 수 있도록 하는 서비스다. 또 이미지와 비디오에서 얼굴 분석 및 얼굴 인식 기능을 지원한다. 이를 통해 사용자 확인, 인원 계산 및 공공 안전 등 다양한 사용 사례에서 얼굴을 탐지, 분석 및 비교할 수 있다. 회사에 따르면 아마존 레코그니션은 아마존 내부의 인공지능 연구자들이 매일 수십억 개의 이미지와 비디오를 매일 분석할 목적으로 개발한 것으로, 이미 성능이 검증되었을 뿐만 아니라 확장성까지 뛰어난 딥러닝 기술을 기반으로 하고 있다. 특히 일반 사용자나 개발자들이 전문적인 인공지능 지식이 없이도 간단한 API 호출로도 손쉽게 기능을 활용할 수 있다고 회사 측은 전했다. 기아자동차는 AWS의 AI 서비스인 아마존 레코그니션과 아마존 폴리(Amazon Polly)를 사용하여 얼굴 분석 및 음성 서비스를 이용한 자동차 로그인 기능을 선보인 바 있다. CES 2018에서 소개된 이 기능은 운전자를 인식하여 환영 메시지를 음성으로 전달하고 개인 특성에 따라 차량 설정을 조정할 수 있다. 또 기아자동차는 럭셔리 디지털쇼룸인 ‘BEAT 360’에서 방문 고객들을 위하여 아마존 레코그니션을 사용했다. 이 쇼케이스에서 레코그니션은 방문고객의 연령, 성별, 얼굴 표정에 따라 컬러 테라피(color therapy) 및 음악 추천 서비스를 제공했다. KPOP 관련 콘서트 예매, 굿즈 구매 등을...

2018.08.10

코그넥스, 딥러닝 기반의 머신비전 솔루션 '코그넥스 비디 스위트' 출시

코그넥스가 딥 러닝 기반의 산업 이미지 분석 소프트웨어 ‘코그넥스 비디 스위트(Cognex ViDi Suite)’를 출시한다고 밝혔다. 코그넥스 비디 스위트는 산업 이미지 분석 전용으로 설계된 딥 러닝 기반의 소프트웨어로, 머신러닝의 첨단 알고리즘 세트를 기반으로 신뢰할 수 있는 이미지 분석을 제공한다. 코그넥스 비디 스위트는 차별화된 접근 방식과 인간의 학습 과정을 모델링한 예시 기반의 학습 방법으로 기존 머신비전의 한계를 극복해 기존 방법으로는 프로그래밍할 수 없었던 까다로운 검사 및 분류 문제도 해결한다고 업체 측은 설명했다. 코그넥스 비디 스위트는 ▲비디 블루(ViDi Blue) ▲비디 레드(ViDi Red) ▲비디 그린(ViDi Green) ▲비디 리드 (ViDi Read)로 구성돼 있다. 비디 블루는 하나의 이미지에서 하나 또는 여러 개의 특징을 찾아 위치를 파악하는 데 사용된다. 노이즈가 많은 배경에 있는 심각하게 변형된 문자, 여러 개의 복잡한 물체 등 특징이 복잡한 개체도 주석이 있는 이미지를 인식하는 방식을 통해 위치를 찾아 식별할 수 있다. 블루 툴을 학습시키기 위해서는 대상 특징이 표시된 이미지를 제공하면 된다. 비디 레드는 이상 및 미적 결함을 감지하는 데 사용된다. 레드 툴은 뚜렷하지만 허용할 수 있는 변형을 포함해 물체의 정상적 외관을 학습하여 장식이 있는 표면의 긁힘, 불완전하거나 부적합한 조립품, 직물의 짜임새 등을 비롯한 수많은 문제를 식별할 수 있다. 비디 그린은 물체나 전체 장면을 분류하는 데 사용된다. 포장을 바탕으로 한 제품 식별, 용접 이음매의 분류, 허용 가능하거나 허용 불가능한 결함의 분리 등 라벨 표시된 이미지 컬렉션을 바탕으로 서로 다른 등급을 구분한다. 비디 리드는 향상된 광학적 문자 판독 기능을 제공하는 툴이다. 영어, 숫자는 물론이고 한글과 한자도 인식할 수 있다. 글자 사이의 폭이 좁은 가변폭 글자체, 금속, 플라스틱, 고무 등에 새겨진 문...

코그넥스 머신비전 이미지 분석

2018.03.23

코그넥스가 딥 러닝 기반의 산업 이미지 분석 소프트웨어 ‘코그넥스 비디 스위트(Cognex ViDi Suite)’를 출시한다고 밝혔다. 코그넥스 비디 스위트는 산업 이미지 분석 전용으로 설계된 딥 러닝 기반의 소프트웨어로, 머신러닝의 첨단 알고리즘 세트를 기반으로 신뢰할 수 있는 이미지 분석을 제공한다. 코그넥스 비디 스위트는 차별화된 접근 방식과 인간의 학습 과정을 모델링한 예시 기반의 학습 방법으로 기존 머신비전의 한계를 극복해 기존 방법으로는 프로그래밍할 수 없었던 까다로운 검사 및 분류 문제도 해결한다고 업체 측은 설명했다. 코그넥스 비디 스위트는 ▲비디 블루(ViDi Blue) ▲비디 레드(ViDi Red) ▲비디 그린(ViDi Green) ▲비디 리드 (ViDi Read)로 구성돼 있다. 비디 블루는 하나의 이미지에서 하나 또는 여러 개의 특징을 찾아 위치를 파악하는 데 사용된다. 노이즈가 많은 배경에 있는 심각하게 변형된 문자, 여러 개의 복잡한 물체 등 특징이 복잡한 개체도 주석이 있는 이미지를 인식하는 방식을 통해 위치를 찾아 식별할 수 있다. 블루 툴을 학습시키기 위해서는 대상 특징이 표시된 이미지를 제공하면 된다. 비디 레드는 이상 및 미적 결함을 감지하는 데 사용된다. 레드 툴은 뚜렷하지만 허용할 수 있는 변형을 포함해 물체의 정상적 외관을 학습하여 장식이 있는 표면의 긁힘, 불완전하거나 부적합한 조립품, 직물의 짜임새 등을 비롯한 수많은 문제를 식별할 수 있다. 비디 그린은 물체나 전체 장면을 분류하는 데 사용된다. 포장을 바탕으로 한 제품 식별, 용접 이음매의 분류, 허용 가능하거나 허용 불가능한 결함의 분리 등 라벨 표시된 이미지 컬렉션을 바탕으로 서로 다른 등급을 구분한다. 비디 리드는 향상된 광학적 문자 판독 기능을 제공하는 툴이다. 영어, 숫자는 물론이고 한글과 한자도 인식할 수 있다. 글자 사이의 폭이 좁은 가변폭 글자체, 금속, 플라스틱, 고무 등에 새겨진 문...

2018.03.23

"레이저 센서보다 10배 저렴"··· 데이터61, 종무 테크놀로지와 차량용 컴퓨터 비전 개발 중

자율주행 차량 시장이 2025년 420억 달러 규모를 형성한 이후 2035년에는 770억 달러에 이를 것으로 전망된다. 호주 기업 데이터61(Data61)과 중국 기업 종무 테크놀로지(ZongMu Technology)는 이 시장을 겨냥해 자율주행 분야의 주요 기술 과제 중 하나는 머신미전 기술을 개발하고 있다. 데이터61은 호주 CSIRO(Commonwealth Scientific and Industrial Research Organization)의 지원을 통해 설립된 기업이다. 이들 두 조직은 인간이 시각처럼 환경을 보고 이해하고 위험에 대응할 수 있는 컴퓨터 비전을 차량에 탑재시키는 것이 목표라고 전했다. 닉 반즈 박사가 이끄는 데이터61의 스마트 비전 시스템 그룹은 종무 테크놀로지와 함께 차량의 움직임에 따라 물체 사이의 공간을 추정하고 움직이는 물체의 잠재적인 위험을 예측하는 알고리즘을 개발하고 있다. 반즈 박사는 "컴퓨터 비전은 자율 주행 차량이 포장 도로와 운전 가능한 도로의 차이를 파악할 수 있게 해주는 기술"이라고 소개했다. 그는 이어 "위험을 식별하기 위해 일련의 점에 의존하는 레이저 센서와는 달리, 개발 중인 컴퓨터 비전은 3D 이미지 분석을 통해 풍부한 정보와 도로 장면에 대한 깊은 이해를 제공하므로보다 안전한 자동 운전이 가능하게 한다"라고 말했다. 데이터61의 샤오디 유 수석 과학자는 이 기술을 통해 더 빨리 사물을 파악하고 위험을 회피할 수 있다고 설명했다. 그는 "우리가 개발 중인 기술은 자율주행 차량이 위험 요소를 보다 빨리 감지하고 대응할 수 있게 해준다. 또 도로 규칙을 이해하고 준수하며, 주어진 환경에서 움직이는 다른 차량 및 사물과 관련해 정확한 위치를 결정할 수 있게 해줄 것이다"라고 말했다. 양사에 따르면 대부분의 자율주행 차량 기업들이 사용하는 레이저 센서는 대단히 비싸다. 그러나 컴퓨터 비전 알고리즘은 1/10의 비용으로 구현...

자동차 자율주행 머신비전 컴퓨터 비전 데이터61 종무 테크놀로지

2018.02.07

자율주행 차량 시장이 2025년 420억 달러 규모를 형성한 이후 2035년에는 770억 달러에 이를 것으로 전망된다. 호주 기업 데이터61(Data61)과 중국 기업 종무 테크놀로지(ZongMu Technology)는 이 시장을 겨냥해 자율주행 분야의 주요 기술 과제 중 하나는 머신미전 기술을 개발하고 있다. 데이터61은 호주 CSIRO(Commonwealth Scientific and Industrial Research Organization)의 지원을 통해 설립된 기업이다. 이들 두 조직은 인간이 시각처럼 환경을 보고 이해하고 위험에 대응할 수 있는 컴퓨터 비전을 차량에 탑재시키는 것이 목표라고 전했다. 닉 반즈 박사가 이끄는 데이터61의 스마트 비전 시스템 그룹은 종무 테크놀로지와 함께 차량의 움직임에 따라 물체 사이의 공간을 추정하고 움직이는 물체의 잠재적인 위험을 예측하는 알고리즘을 개발하고 있다. 반즈 박사는 "컴퓨터 비전은 자율 주행 차량이 포장 도로와 운전 가능한 도로의 차이를 파악할 수 있게 해주는 기술"이라고 소개했다. 그는 이어 "위험을 식별하기 위해 일련의 점에 의존하는 레이저 센서와는 달리, 개발 중인 컴퓨터 비전은 3D 이미지 분석을 통해 풍부한 정보와 도로 장면에 대한 깊은 이해를 제공하므로보다 안전한 자동 운전이 가능하게 한다"라고 말했다. 데이터61의 샤오디 유 수석 과학자는 이 기술을 통해 더 빨리 사물을 파악하고 위험을 회피할 수 있다고 설명했다. 그는 "우리가 개발 중인 기술은 자율주행 차량이 위험 요소를 보다 빨리 감지하고 대응할 수 있게 해준다. 또 도로 규칙을 이해하고 준수하며, 주어진 환경에서 움직이는 다른 차량 및 사물과 관련해 정확한 위치를 결정할 수 있게 해줄 것이다"라고 말했다. 양사에 따르면 대부분의 자율주행 차량 기업들이 사용하는 레이저 센서는 대단히 비싸다. 그러나 컴퓨터 비전 알고리즘은 1/10의 비용으로 구현...

2018.02.07

인텔, 모빌아이 인수 완료··· ADG 부문과 통합

인텔이 자율주행 자동차 기술 개발사 모빌아이(Mobileye) 인수를 완료했다. 지난 3월 발표된 이번 인수는 총 153억 달러에 이르는 블록버스터급 규모로 눈길을 모은 바 있다. -> 인텔이 모빌아이를 153억 달러에 인수하는 이유 이스라엘에 본사를 두고 있는 모빌아이는 첨단 운전자 지원 시스템 및 자율주행을 위해 컴퓨터 비전, 머신러닝, 데이터분석, 로컬라이제이션, 매핑 분야를 전문으로 해온 기업이다. 인텔의 모빌아이 인수는 자동차 산업의 혁신을 가속화하는 한편 자율주행 분야에서의 인텔 입지를 강화시킬 것으로 기대되고 있다. 인텔의 브라이언 크르자니크 CEO는 "모빌아이 인수를 통해 인텔은 자율주행의 근간 기술을 제공하는 선도 업체로 부상하고 있다"면서 "인텔에게는 흥미로운 엔지니어링 과제이자 엄청난 성장 기회다. 더욱 흥미진진한 점은 자율주행 기술이 자동차 산업을 변화시키고 사회를 개선시키며 수 백만 명의 목숨을 구할 잠재력을 가졌다는 것"이라고 말했다. 그에 따르면 인텔은 모빌아이 인수를 통해 컴퓨터 비전 기술과 인텔의 고성능 컴퓨팅 및 연결성 역량을 결합함으로써 클라우드와 자동차를 연결시키는 자율주행 솔루션을 구축할 계획이다. 인텔은 2030년 미화 700억 달러에 이를 것으로 관측되는 차량 시스템, 데이터, 서비스 시장 기회를 포착하기 위해 자사의 운전 자동화 그룹(ADG)과 모빌아이의 비즈니스를 통합할 방침이라고 전했다. 결과적으로 이 모빌아이 통합 조직은 인텔의 자율주행 계획을 주도하게 된다. 한편 모빌아이의 운영 소재지는 앞으로도 이스라엘에 존재하며 암논 샤수아 교수가 인텔의 수석 부사장, 모빌아이 CEO 겸 CTO 직위를 담당할 예정이다. 모빌아이 공동창업자인 지브 아비람은 즉시 은퇴한다. 샤슈아 교수는 "자율주행 기술 분야를 선도하기 위해서는 혁신적인 소프트웨어 제품과 다목적 오픈 시스템 하드웨어 플랫폼의 결합이 필요하다. 그래야 고객사와 파트너사들...

인텔 자동차 자율주행 머신비전 모빌아이

2017.08.09

인텔이 자율주행 자동차 기술 개발사 모빌아이(Mobileye) 인수를 완료했다. 지난 3월 발표된 이번 인수는 총 153억 달러에 이르는 블록버스터급 규모로 눈길을 모은 바 있다. -> 인텔이 모빌아이를 153억 달러에 인수하는 이유 이스라엘에 본사를 두고 있는 모빌아이는 첨단 운전자 지원 시스템 및 자율주행을 위해 컴퓨터 비전, 머신러닝, 데이터분석, 로컬라이제이션, 매핑 분야를 전문으로 해온 기업이다. 인텔의 모빌아이 인수는 자동차 산업의 혁신을 가속화하는 한편 자율주행 분야에서의 인텔 입지를 강화시킬 것으로 기대되고 있다. 인텔의 브라이언 크르자니크 CEO는 "모빌아이 인수를 통해 인텔은 자율주행의 근간 기술을 제공하는 선도 업체로 부상하고 있다"면서 "인텔에게는 흥미로운 엔지니어링 과제이자 엄청난 성장 기회다. 더욱 흥미진진한 점은 자율주행 기술이 자동차 산업을 변화시키고 사회를 개선시키며 수 백만 명의 목숨을 구할 잠재력을 가졌다는 것"이라고 말했다. 그에 따르면 인텔은 모빌아이 인수를 통해 컴퓨터 비전 기술과 인텔의 고성능 컴퓨팅 및 연결성 역량을 결합함으로써 클라우드와 자동차를 연결시키는 자율주행 솔루션을 구축할 계획이다. 인텔은 2030년 미화 700억 달러에 이를 것으로 관측되는 차량 시스템, 데이터, 서비스 시장 기회를 포착하기 위해 자사의 운전 자동화 그룹(ADG)과 모빌아이의 비즈니스를 통합할 방침이라고 전했다. 결과적으로 이 모빌아이 통합 조직은 인텔의 자율주행 계획을 주도하게 된다. 한편 모빌아이의 운영 소재지는 앞으로도 이스라엘에 존재하며 암논 샤수아 교수가 인텔의 수석 부사장, 모빌아이 CEO 겸 CTO 직위를 담당할 예정이다. 모빌아이 공동창업자인 지브 아비람은 즉시 은퇴한다. 샤슈아 교수는 "자율주행 기술 분야를 선도하기 위해서는 혁신적인 소프트웨어 제품과 다목적 오픈 시스템 하드웨어 플랫폼의 결합이 필요하다. 그래야 고객사와 파트너사들...

2017.08.09

인텔이 모빌아이를 153억 달러에 인수하는 이유

인텔이 ADAS(Advanced Driver Assistance Systems) 및 완전 자율주행 자동차용 비전 기술 이스라엘 기업인 모빌아이 N.V.(Mobileye N.V.)를 인수할 계약을 체결했다고 지난 13일 발표했다. 이 153억 달러 규모의 거래로 인텔은 ADAS 산업 부문에서 최고의 자율주행 자동차 칩 및 기계 비전 기술 제공자로 부상할 전망이다. 인텔은 해당 산업이 2030년까지 700억 달러 규모로 성장할 것으로 보고 있다. 이번 거래는 역대 최대 규모의 이스라엘 첨단 기업 인수 계약에 해당한다. 모빌아이의 EyeQ2 칩. 현대 차량의 차선 안내 카메라 모듈에 장착돼 있다. 인텔의 CEO 브라이언 크르자니크는 13일 컨퍼런스 콜에서 “자율주행 자동차의 눈 그리고 실제로 차량을 움직이는 두뇌가 결합된다”라고 이번 거래의 의미를 부여했다. 그는 “인텔은 차량의 경로를 계획하고 실시간 주행 결정을 내리는 등 자율주행을 위한 필수 기반 기술을 제공한다. 모빌아이는 업계 최고의 자동차용 컴퓨터 비전 그리고 자동차 제조사 및 공급사와 돈독한 관계를 맺고 있다. 우리는 함께 자율주행의 미래를 가속화하고 자동차 제조사들이 낮은 비용으로 클라우드-차량 솔루션의 성능을 개선하도록 할 수 있다”라고 말했다. IHS 오토모티브에 따르면, 600명의 직원을 보유한 상대적으로 작은 기업인 모빌아이는 초기 단계이기는 하지만 빠르게 성장하는 운전자 보조 카메라 부문에서 시장의 70-80%를 점유하고 있다. 주로 2차 자동차 공급사로서 GM(General Motors) 및 폭스바겐(Volkswagen AG) 등의 자동차 대기업들에게 판매하는 주요 1차 공급사들과 협력하고 있다. 현재 도요타(Toyota)를 제외한 27개 모든 주요 자동차 제조사에 제품을 공급하고 있다는 설명이다. 가트너의 마이크 램지 리서치 디렉터는 모빌아이의 소형 단일 카메라 자동차 비전 시스템이 저렴하면서 효과적이라고 평가했...

인수 인텔 자동차 자율주행 머신비전 모빌아이

2017.03.15

인텔이 ADAS(Advanced Driver Assistance Systems) 및 완전 자율주행 자동차용 비전 기술 이스라엘 기업인 모빌아이 N.V.(Mobileye N.V.)를 인수할 계약을 체결했다고 지난 13일 발표했다. 이 153억 달러 규모의 거래로 인텔은 ADAS 산업 부문에서 최고의 자율주행 자동차 칩 및 기계 비전 기술 제공자로 부상할 전망이다. 인텔은 해당 산업이 2030년까지 700억 달러 규모로 성장할 것으로 보고 있다. 이번 거래는 역대 최대 규모의 이스라엘 첨단 기업 인수 계약에 해당한다. 모빌아이의 EyeQ2 칩. 현대 차량의 차선 안내 카메라 모듈에 장착돼 있다. 인텔의 CEO 브라이언 크르자니크는 13일 컨퍼런스 콜에서 “자율주행 자동차의 눈 그리고 실제로 차량을 움직이는 두뇌가 결합된다”라고 이번 거래의 의미를 부여했다. 그는 “인텔은 차량의 경로를 계획하고 실시간 주행 결정을 내리는 등 자율주행을 위한 필수 기반 기술을 제공한다. 모빌아이는 업계 최고의 자동차용 컴퓨터 비전 그리고 자동차 제조사 및 공급사와 돈독한 관계를 맺고 있다. 우리는 함께 자율주행의 미래를 가속화하고 자동차 제조사들이 낮은 비용으로 클라우드-차량 솔루션의 성능을 개선하도록 할 수 있다”라고 말했다. IHS 오토모티브에 따르면, 600명의 직원을 보유한 상대적으로 작은 기업인 모빌아이는 초기 단계이기는 하지만 빠르게 성장하는 운전자 보조 카메라 부문에서 시장의 70-80%를 점유하고 있다. 주로 2차 자동차 공급사로서 GM(General Motors) 및 폭스바겐(Volkswagen AG) 등의 자동차 대기업들에게 판매하는 주요 1차 공급사들과 협력하고 있다. 현재 도요타(Toyota)를 제외한 27개 모든 주요 자동차 제조사에 제품을 공급하고 있다는 설명이다. 가트너의 마이크 램지 리서치 디렉터는 모빌아이의 소형 단일 카메라 자동차 비전 시스템이 저렴하면서 효과적이라고 평가했...

2017.03.15

칼럼 | AI가 발전해도 안전한 일자리?··· 우리가 간과하는 것들

오늘날 직업의 30~50%가 20~30년 내 자동화될 것이라는 전망이 자주 들려온다. 그렇다면 어떤 직업이 안전할까? 아니 안전한 일자리를 찾아내고 이를 위한 경쟁력을 갖추면 되는 문제일까? 힐튼 호텔에서 인사하는 컨시어지 로봇 ‘코니’ Credit: IBM 어떤 종류의 직업이, 또는 얼마나 많은 직업이 차세대 기술로 대체될지에 대한 추측을 담은 기사는 지난 수년 간 적어도 수만 개는 쏟아져 나왔다. 어느덧 이러한 경고는 이미 익숙해진 느낌이다. 미래의 공장을 운영하기 위해서는 1 명의 사람과 1 마리의 개만 있으면 된다는 농담까지 생겨났다. 개는 아무도 기계를 방해하지 못하도록 하는 목적에서 필요하며 사람은 개를 키우는 역할인 것이다. 그러나 앞으로 50년 후에는 이 정도의 직업 통계조차 과도하게 낙관적이었다고 생각하게 될지도 모른다. 기술이 직업 분야에 끼치는 영향을 연구하는 연구원들은 향후 20~30년 동안 전 세계 인력의 30~50%가 엄청난 위험에 직면할 것이라고 전망하고 있으며, 이와 관련해 미처 논의되지 않은 위험성들도 있다고 경고하고 있다. 주체는 ‘인간’(The human in the loop) 기술이 직업 시장에 끼치는 영향에 대해 이야기할 때, 사람들은 흔히 기술이 어떻게 우리의 직업을 빼앗을 지에 대해 이야기하곤 한다. 필자는 우선 이러한 시각이 그리 적절하지 않다고 지적하고 싶다. 왜냐하면 시장과 경제의 변화 속에서 이러한 현상은 기업 임원들의 판단으로 발생하기 때문이다. 그들은 새로운 시대의 기계와 시스템이 사람보다 더 낮은 비용으로 더욱 나은 성과를 제공할 것이라고 판단할 것이다. HR 부서에 P45(편집자 주 : 퇴직 시 세금 정산 관련 문서) 이메일을 발송하도록 지시를 내릴 주체는 AI가 아니라 바로 그들인 것이다. 즉 20세기적 관점으로 보일 수도 있지만 인력 정리해고의 계층 또는 섹션을 결정하는 것은 오늘과 내일의...

미래 HM 머신비전 머신러닝 유전자 생존 인간 AI 일자리 직업 사이보그

2016.03.18

오늘날 직업의 30~50%가 20~30년 내 자동화될 것이라는 전망이 자주 들려온다. 그렇다면 어떤 직업이 안전할까? 아니 안전한 일자리를 찾아내고 이를 위한 경쟁력을 갖추면 되는 문제일까? 힐튼 호텔에서 인사하는 컨시어지 로봇 ‘코니’ Credit: IBM 어떤 종류의 직업이, 또는 얼마나 많은 직업이 차세대 기술로 대체될지에 대한 추측을 담은 기사는 지난 수년 간 적어도 수만 개는 쏟아져 나왔다. 어느덧 이러한 경고는 이미 익숙해진 느낌이다. 미래의 공장을 운영하기 위해서는 1 명의 사람과 1 마리의 개만 있으면 된다는 농담까지 생겨났다. 개는 아무도 기계를 방해하지 못하도록 하는 목적에서 필요하며 사람은 개를 키우는 역할인 것이다. 그러나 앞으로 50년 후에는 이 정도의 직업 통계조차 과도하게 낙관적이었다고 생각하게 될지도 모른다. 기술이 직업 분야에 끼치는 영향을 연구하는 연구원들은 향후 20~30년 동안 전 세계 인력의 30~50%가 엄청난 위험에 직면할 것이라고 전망하고 있으며, 이와 관련해 미처 논의되지 않은 위험성들도 있다고 경고하고 있다. 주체는 ‘인간’(The human in the loop) 기술이 직업 시장에 끼치는 영향에 대해 이야기할 때, 사람들은 흔히 기술이 어떻게 우리의 직업을 빼앗을 지에 대해 이야기하곤 한다. 필자는 우선 이러한 시각이 그리 적절하지 않다고 지적하고 싶다. 왜냐하면 시장과 경제의 변화 속에서 이러한 현상은 기업 임원들의 판단으로 발생하기 때문이다. 그들은 새로운 시대의 기계와 시스템이 사람보다 더 낮은 비용으로 더욱 나은 성과를 제공할 것이라고 판단할 것이다. HR 부서에 P45(편집자 주 : 퇴직 시 세금 정산 관련 문서) 이메일을 발송하도록 지시를 내릴 주체는 AI가 아니라 바로 그들인 것이다. 즉 20세기적 관점으로 보일 수도 있지만 인력 정리해고의 계층 또는 섹션을 결정하는 것은 오늘과 내일의...

2016.03.18

회사명:한국IDG 제호: ITWorld 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 편집인 : 박재곤 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2022 International Data Group. All rights reserved.

10.4.0.13