Offcanvas

��������������������������������������������������������������������������������� ���������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������

칼럼ㅣ공공 데이터의 가치를 활용하는 6가지 방법

공공 및 민간기관들은 각종 데이터를 무료로 제공하고 있다. 이 공공 데이터를 활용해 비즈니스 성공을 도모할 수 있는 6가지 방법을 살펴본다.  세계은행, IMF, 세계보건기구 같은 NGO뿐만 아니라 각국 중앙 및 지방 정부는 웹 포털을 통해 데이터세트를 제공하고 있다.  이를테면 미국은 data.gov라는 공공 데이터 포털에서 32만 개의 데이터세트를 제공한다. 영국의 경우 data.gov.uk에서 5만 1,000개, 유럽은 EU 포털로 136만 개의 데이터세트를 지원한다. 이를 통해 소비자 지출, 날씨, 지도 작성, 기업 재정, 공공 조달 계약 등에 관한 데이터를 무료로 다운로드할 수 있다.    구글과 옐프 같은 기업에서 제공하는 민간 데이터도 있다. 구글은 전 세계의 검색 행태 데이터를, 옐프는 16만 1,000개의 미국 기업에 대한 860만 개의 리뷰를 공공 데이터세트로 지원한다.  이 데이터의 경제적 가치를 추산하긴 어렵지만 맥킨지는 이를 효율적으로 사용한다면 세계 경제 전반에 걸쳐 미화 3조 달러(한화 약 3,425조 원)의 가치가 창출될 것이라고 전망했다. EU는 2020년에 공공 데이터가 898억 달러(한화 약 102조 5,800억 원)의 가치를 지닐 것이라고 예상하기도 했다.  기업은 이같은 공공 데이터를 활용해 혁신을 가속화하고, 비용을 절감하며, 경쟁력을 향상시킬 수 있다. 구체적인 방법 6가지는 다음과 같다.  1. 신규 및 잠재 시장에 대한 이해도 향상 구글 검색 데이터를 조회하면 소비자 선호도와 관심사를 바로 파악할 수 있다. 구글 트렌드를 통해서는 시간과 지역에 따른 검색어의 상대적 인기도를 추적할 수 있다. 구글의 인터넷 검색 시장 점유율은 90%를 상회한다. 다시 말해, 해당 데이터를 활용하면 소비자 행동을 파악하기가 훨씬 쉽다는 의미다. 이 밖에 검색 인사이트와 소비자 지출에 관한 공공 데이터(예: 미국 개인...

공공 데이터 민간 데이터 구글 트렌드 데이터베이스 오픈코퍼레이트 판지바 시티매퍼 투셀 공공 DB

2021.08.06

공공 및 민간기관들은 각종 데이터를 무료로 제공하고 있다. 이 공공 데이터를 활용해 비즈니스 성공을 도모할 수 있는 6가지 방법을 살펴본다.  세계은행, IMF, 세계보건기구 같은 NGO뿐만 아니라 각국 중앙 및 지방 정부는 웹 포털을 통해 데이터세트를 제공하고 있다.  이를테면 미국은 data.gov라는 공공 데이터 포털에서 32만 개의 데이터세트를 제공한다. 영국의 경우 data.gov.uk에서 5만 1,000개, 유럽은 EU 포털로 136만 개의 데이터세트를 지원한다. 이를 통해 소비자 지출, 날씨, 지도 작성, 기업 재정, 공공 조달 계약 등에 관한 데이터를 무료로 다운로드할 수 있다.    구글과 옐프 같은 기업에서 제공하는 민간 데이터도 있다. 구글은 전 세계의 검색 행태 데이터를, 옐프는 16만 1,000개의 미국 기업에 대한 860만 개의 리뷰를 공공 데이터세트로 지원한다.  이 데이터의 경제적 가치를 추산하긴 어렵지만 맥킨지는 이를 효율적으로 사용한다면 세계 경제 전반에 걸쳐 미화 3조 달러(한화 약 3,425조 원)의 가치가 창출될 것이라고 전망했다. EU는 2020년에 공공 데이터가 898억 달러(한화 약 102조 5,800억 원)의 가치를 지닐 것이라고 예상하기도 했다.  기업은 이같은 공공 데이터를 활용해 혁신을 가속화하고, 비용을 절감하며, 경쟁력을 향상시킬 수 있다. 구체적인 방법 6가지는 다음과 같다.  1. 신규 및 잠재 시장에 대한 이해도 향상 구글 검색 데이터를 조회하면 소비자 선호도와 관심사를 바로 파악할 수 있다. 구글 트렌드를 통해서는 시간과 지역에 따른 검색어의 상대적 인기도를 추적할 수 있다. 구글의 인터넷 검색 시장 점유율은 90%를 상회한다. 다시 말해, 해당 데이터를 활용하면 소비자 행동을 파악하기가 훨씬 쉽다는 의미다. 이 밖에 검색 인사이트와 소비자 지출에 관한 공공 데이터(예: 미국 개인...

2021.08.06

아시아경제 교육센터, IT 빅데이터 분석 및 서비스 개발자 양성교육 훈련생 모집

아시아경제 교육센터가 8월 20일까지 ‘빅데이터 기반 디지털 산업융합 서비스 개발자 양성’ 교육과정 훈련생을 모집한다고 밝혔다. 빅데이터를 기반으로 분석 및 서비스를 개발하고 기획할 수 있는 인재를 양성해 관련 산업계에 취업하는 것을 목표로, 6개월 동안 900시간에 걸쳐 강도 높은 실무중심 수업이 이뤄진다고 센터 측은 설명했다. 이번 교육 과정은 프로그래밍 경험이 전혀 없는 비전공자나 기초자도 빅데이터 분석 기술을 습득해 현장에 투입이 가능하도록 체계적인 이론 및 실습교과목으로 구성돼 있으며, 전체 훈련시간의 50% 가까운 시간을 실무 프로젝트를 진행해 박진감 넘치는 현장중심형 프로젝트 결과물들을 다뤄볼 수 있다. 특히, 실무 프로젝트 단계에서는 관련 기술분야 현업 재직자가 멘토로 참여해 현업의 이슈들을 직접 다루게 된다. 최종 프로젝트 결과물은 협약기업의 실무담당자가 평가위원으로 참여하는 데모데이에서 발표되며, 이 과정에서 우수 훈련생은 해당 협약기업으로 추천채용이 연계될 기회가 주어진다. 아시아경제는 급성장하고 있는 디지털 일자리 수요에 맞춰서 여러 직무에 통합적으로 요구되는 디지털 역량을 중심으로 ▲빅데이터 분야 ▲핀테크 ▲인공지능 훈련과정을 운영 중에 있으며, 훈련생 여러 팀이 외부 공모전과 경진대회에서 좋은 성적으로 다수 수상하는 등 성과가 확산되고 있다. 아시아경제 교육센터 신일동 센터장은 “우리 센터의 목표는 단순한 이론과 기술지식 습득이 아니라 아시아경제가 확보하고 있는 협약기업들에게 실질적인 도움이 될 수 있는 디지털 인재를 양성하는 것”이라며 “언론사로서 가장 큰 장점을 발휘해 기업과 적극적인 소통을 통해 관련 산업계 현장에 꼭 필요한 인재를 양성하는 교육과정을 만들어가겠다”라고 밝혔다. ciokr@idg.co.kr

아시아경제 교육센터

2021.08.05

아시아경제 교육센터가 8월 20일까지 ‘빅데이터 기반 디지털 산업융합 서비스 개발자 양성’ 교육과정 훈련생을 모집한다고 밝혔다. 빅데이터를 기반으로 분석 및 서비스를 개발하고 기획할 수 있는 인재를 양성해 관련 산업계에 취업하는 것을 목표로, 6개월 동안 900시간에 걸쳐 강도 높은 실무중심 수업이 이뤄진다고 센터 측은 설명했다. 이번 교육 과정은 프로그래밍 경험이 전혀 없는 비전공자나 기초자도 빅데이터 분석 기술을 습득해 현장에 투입이 가능하도록 체계적인 이론 및 실습교과목으로 구성돼 있으며, 전체 훈련시간의 50% 가까운 시간을 실무 프로젝트를 진행해 박진감 넘치는 현장중심형 프로젝트 결과물들을 다뤄볼 수 있다. 특히, 실무 프로젝트 단계에서는 관련 기술분야 현업 재직자가 멘토로 참여해 현업의 이슈들을 직접 다루게 된다. 최종 프로젝트 결과물은 협약기업의 실무담당자가 평가위원으로 참여하는 데모데이에서 발표되며, 이 과정에서 우수 훈련생은 해당 협약기업으로 추천채용이 연계될 기회가 주어진다. 아시아경제는 급성장하고 있는 디지털 일자리 수요에 맞춰서 여러 직무에 통합적으로 요구되는 디지털 역량을 중심으로 ▲빅데이터 분야 ▲핀테크 ▲인공지능 훈련과정을 운영 중에 있으며, 훈련생 여러 팀이 외부 공모전과 경진대회에서 좋은 성적으로 다수 수상하는 등 성과가 확산되고 있다. 아시아경제 교육센터 신일동 센터장은 “우리 센터의 목표는 단순한 이론과 기술지식 습득이 아니라 아시아경제가 확보하고 있는 협약기업들에게 실질적인 도움이 될 수 있는 디지털 인재를 양성하는 것”이라며 “언론사로서 가장 큰 장점을 발휘해 기업과 적극적인 소통을 통해 관련 산업계 현장에 꼭 필요한 인재를 양성하는 교육과정을 만들어가겠다”라고 밝혔다. ciokr@idg.co.kr

2021.08.05

"마이크로포커스, AI 및 예측 분석 영역 리더" RIA

한국 마이크로포커스(Micro Focus)는 리서치 & 컨설팅 그룹인 ‘Research In Action(이하 RIA)'가 발간한 보고서에서 AI 및 예측 분석 영역에서 리더로 선정되었다고 2일 밝혔다. RIA는 이 보고서에서 마이크로포커스가 가지고 있는 광범위한 포트폴리오와 솔루션 간의 완벽한 통합 기능을 지원한다고 판단해 20개 공급업체 가운데 가장 높은 점수를 부여했다고 전했다.    RIA의 이브라인 오엘리치는 "마이크로포커스의 오퍼레이션 브리지(Operation Bridge) 솔루션과 임베디드 OPIC 플랫폼은 회사의 우수한 통합 및 데이터 항목으로 AIPA의 범주를 선도하고 있어 모든 디지털 비즈니스 전환 프로젝트를 위한 훌륭한 파트너"라고 언급하며, "마이크로포커스가 최근 OPTIC(Operations Platform for Transformation, Intelligence and Cloud)로 전환한 것은 기업이 비즈니스 팀과 IT 팀 모두에서 필요로 하는 디지털 혁신의 다음 장을 향한 중요한 단계"라고 말했다. 마이크로포커스 오퍼레이션 브리지는 강력한 자동 머신러닝, 이상 징후 감지 및 예측 분석을 통해 근본 원인을 신속하게 식별할 수 있는 AI옵스(AIOps) 솔루션이다. 마이크로포커스의 OPTIC 플랫폼의 내장된 인텔리전스는 대부분의 타사 모니터링 도구를 포함해 여러 IT 환경에서 발견되는 다양한 솔루션에서 생성되는 모든 데이터를 표준화, 저장 및 이해할 수 있도록 광범위한 분석 기능을 제공한다.  또한 오퍼레이션 브리지 및 OPTIC을 통해 기업은 온프레미스 접근 방식과 함께 클라우드 서비스를 검색, 모니터링, 관리 및 통제해 고객 경험과 비즈니스 수익을 극대화할 수 있다. 오퍼레이션 브리지에는 다음과 같은 기능이 포함된다.    클라우드 및 사내 서비스 전반에 걸쳐 자동화된 검색 및 모니터링 이벤트 통합 및 소음 감소: 근본 원인을 신속하게 파악하고 평균 장애처리 시간 단...

마이크로포커스 Micro Focus

2021.08.04

한국 마이크로포커스(Micro Focus)는 리서치 & 컨설팅 그룹인 ‘Research In Action(이하 RIA)'가 발간한 보고서에서 AI 및 예측 분석 영역에서 리더로 선정되었다고 2일 밝혔다. RIA는 이 보고서에서 마이크로포커스가 가지고 있는 광범위한 포트폴리오와 솔루션 간의 완벽한 통합 기능을 지원한다고 판단해 20개 공급업체 가운데 가장 높은 점수를 부여했다고 전했다.    RIA의 이브라인 오엘리치는 "마이크로포커스의 오퍼레이션 브리지(Operation Bridge) 솔루션과 임베디드 OPIC 플랫폼은 회사의 우수한 통합 및 데이터 항목으로 AIPA의 범주를 선도하고 있어 모든 디지털 비즈니스 전환 프로젝트를 위한 훌륭한 파트너"라고 언급하며, "마이크로포커스가 최근 OPTIC(Operations Platform for Transformation, Intelligence and Cloud)로 전환한 것은 기업이 비즈니스 팀과 IT 팀 모두에서 필요로 하는 디지털 혁신의 다음 장을 향한 중요한 단계"라고 말했다. 마이크로포커스 오퍼레이션 브리지는 강력한 자동 머신러닝, 이상 징후 감지 및 예측 분석을 통해 근본 원인을 신속하게 식별할 수 있는 AI옵스(AIOps) 솔루션이다. 마이크로포커스의 OPTIC 플랫폼의 내장된 인텔리전스는 대부분의 타사 모니터링 도구를 포함해 여러 IT 환경에서 발견되는 다양한 솔루션에서 생성되는 모든 데이터를 표준화, 저장 및 이해할 수 있도록 광범위한 분석 기능을 제공한다.  또한 오퍼레이션 브리지 및 OPTIC을 통해 기업은 온프레미스 접근 방식과 함께 클라우드 서비스를 검색, 모니터링, 관리 및 통제해 고객 경험과 비즈니스 수익을 극대화할 수 있다. 오퍼레이션 브리지에는 다음과 같은 기능이 포함된다.    클라우드 및 사내 서비스 전반에 걸쳐 자동화된 검색 및 모니터링 이벤트 통합 및 소음 감소: 근본 원인을 신속하게 파악하고 평균 장애처리 시간 단...

2021.08.04

칼럼ㅣ결코 하찮지 않다!··· '데이터 랭글링' 작업이 가치 있는 이유

우수한 데이터 과학 산출물을 얻기 위해서는 고품질의 데이터가 필요하다. 데이터를 정제하고 준비하는 작업은 흥미롭진 않더라도 매우 중요한 이유다.  하버드 비즈니스 리뷰의 표현대로라면 데이터 과학자는 금세기 가장 섹시한 직업 중 하나다. 하지만 고된 수작업이 뒤따르는 직업이기도 하다. 아나콘다의 2021년 데이터 사이언스 현황 설문 조사에 따르면 응답자들은 작업 시간의 39%를 데이터 준비와 정제에 할애한다고 답했다. 모델 학습, 모델 선택, 모델 배포에 할애하는 시간보다 많았다.  데이터 과학자라기보단, 데이터 잡역부에 가까워 보인다.   그게 잘못됐다는 얘기가 아니다. 오히려 데이터 정제 작업은 중요하다는 이야기다. 지난 수년간 사람들은 (암 치료용 데이터 모델들을 구축하는 등) 데이터 과학의 매력적인 측면을 부풀려 말하곤 했다. 하지만 데이터 과학의 8할은 데이터 정제 및 준비 작업이라는 점은 간과해왔다. 데이터 과학의 이런 측면이 데이터 과학을 올바르게 수행하기 위한 근간이라는 점 또한 마찬가지다.  컨설턴트인 아론 주는 "그 어떠한 통계 분석 작업과 머신러닝 모델이라도 입력되는 데이터의 품질에 따라 성능의 우수함이 결정된다"라고 말했다. 누군가는 고된 작업을 도맡아야 한다 데이터 랭글링(데이터 준비 및 정제 작업을 의미)에 소요되는 시간은 점차 줄어드는 것처럼 보인다. 올해는 데이터 과학자들이 시간의 39%를 데이터 랭글링에 할애한다고 전했지만, 지난해 아나콘다의 설문에서는 45%였다. 불과 몇 년 전에는 80%에 육박하는 것으로 추정되기도 했다.  오픈 데이터 연구소의 컨설턴트 레이 도즈는 이러한 추정치가 사실상 틀린 것이라고 지적했다. 더욱이 (이런 수치는) 데이터 랭글링 작업의 중요성을 격하함으로써 랭글링의 가치를 잘못 이해하게 만든다고 그는 주장했다.  그는 "데이터 과학자들은 데이터를 변환하고, 탐색하며, 이해도를 높이는 데 시간을 할애해야 한다. 데이터는 그들이 작업...

데이터 랭글링 데이터 데이터 과학 정제 필터링

2021.08.03

우수한 데이터 과학 산출물을 얻기 위해서는 고품질의 데이터가 필요하다. 데이터를 정제하고 준비하는 작업은 흥미롭진 않더라도 매우 중요한 이유다.  하버드 비즈니스 리뷰의 표현대로라면 데이터 과학자는 금세기 가장 섹시한 직업 중 하나다. 하지만 고된 수작업이 뒤따르는 직업이기도 하다. 아나콘다의 2021년 데이터 사이언스 현황 설문 조사에 따르면 응답자들은 작업 시간의 39%를 데이터 준비와 정제에 할애한다고 답했다. 모델 학습, 모델 선택, 모델 배포에 할애하는 시간보다 많았다.  데이터 과학자라기보단, 데이터 잡역부에 가까워 보인다.   그게 잘못됐다는 얘기가 아니다. 오히려 데이터 정제 작업은 중요하다는 이야기다. 지난 수년간 사람들은 (암 치료용 데이터 모델들을 구축하는 등) 데이터 과학의 매력적인 측면을 부풀려 말하곤 했다. 하지만 데이터 과학의 8할은 데이터 정제 및 준비 작업이라는 점은 간과해왔다. 데이터 과학의 이런 측면이 데이터 과학을 올바르게 수행하기 위한 근간이라는 점 또한 마찬가지다.  컨설턴트인 아론 주는 "그 어떠한 통계 분석 작업과 머신러닝 모델이라도 입력되는 데이터의 품질에 따라 성능의 우수함이 결정된다"라고 말했다. 누군가는 고된 작업을 도맡아야 한다 데이터 랭글링(데이터 준비 및 정제 작업을 의미)에 소요되는 시간은 점차 줄어드는 것처럼 보인다. 올해는 데이터 과학자들이 시간의 39%를 데이터 랭글링에 할애한다고 전했지만, 지난해 아나콘다의 설문에서는 45%였다. 불과 몇 년 전에는 80%에 육박하는 것으로 추정되기도 했다.  오픈 데이터 연구소의 컨설턴트 레이 도즈는 이러한 추정치가 사실상 틀린 것이라고 지적했다. 더욱이 (이런 수치는) 데이터 랭글링 작업의 중요성을 격하함으로써 랭글링의 가치를 잘못 이해하게 만든다고 그는 주장했다.  그는 "데이터 과학자들은 데이터를 변환하고, 탐색하며, 이해도를 높이는 데 시간을 할애해야 한다. 데이터는 그들이 작업...

2021.08.03

IBM 조사 발표 “코로나 발생 기간 데이터 유출 비용 사상 최고치 기록”

IBM 시큐리티가 오늘 전 세계 기업과 조직을 대상으로 데이터 유출 피해에 따른 비용을 조사한 최신 연구 결과를 발표했다. 이 연구 결과에 따르면 조사 대상 기업들은 데이터 유출로 인해 사고당 평균 424만 달러의 손실을 입은 것으로 나타났다. 이 비용은 조사를 진행해온 17년간 최고치이다. 한편, 조사 대상 한국 기업은 데이터 유출 사고로 평균 41억 1천만원의 손실을 입은 것으로 나타났다. 전 세계 500개 이상의 기업 및 조직에서 경험한 실제 데이터 유출 사례를 심층 분석한 이 연구에 따르면, 코로나 기간 동안 기업들은 급격한 운영 변화로 인해 보안 사고를 통제하기 더욱 어려워졌으며, 보안 사고로 인한 관련 비용도 높아져 전년 대비 약 10% 증가한 것으로 나타났다.   지난해 많은 기업들은 직원들에게 재택근무를 장려하거나 요구함에 따라 기술 접근 방식도 이에 맞춰 신속하게 조정해야 했으며, 60%의 조직이 코로나 기간 동안 클라우드 기반 활동을 확대했다. 오늘 발표된 조사 결과에 따르면 기업의 보안 수준이 이러한 급격한 IT 변화에 따라가지 못해 조직의 데이터 유출에 대응하는 능력이 저하되었을 수 있음을 알 수 있다. 포네몬 연구소(Ponemon Institute)가 실시하고 IBM 시큐리티가 분석한 연간 데이터 유출 피해 보고서는 다음과 같은 추세를 밝혀냈다.   원격 근무의 영향: 코로나 기간 동안 원격 근무로 빠르게 전환되면서 데이터 유출와 관련된 피해 금액은 더 높아졌다. 원격 근무가 데이터 유출 사고의 요인에 포함된 경우, 포함되지 않는 경우보다 관련 피해 금액이 평균 100만 달러가 더 높다. (원격 근무 포함 시 496만 달러 vs. 미포함 시 389만 달러)   의료 업계 피해 급증: 코로나 기간 동안 운영상의 변화가 컸던 업계(의료, 소매, 서비스, 소비자 제조/유통)는 전년 대비 데이터 유출 피해 금액이 크게 증가했다. 특히, 의료 업계의 유출 사고 피해액은 사고당 923만 달러로 전년 대비 ...

IBM 데이터 유출

2021.08.02

IBM 시큐리티가 오늘 전 세계 기업과 조직을 대상으로 데이터 유출 피해에 따른 비용을 조사한 최신 연구 결과를 발표했다. 이 연구 결과에 따르면 조사 대상 기업들은 데이터 유출로 인해 사고당 평균 424만 달러의 손실을 입은 것으로 나타났다. 이 비용은 조사를 진행해온 17년간 최고치이다. 한편, 조사 대상 한국 기업은 데이터 유출 사고로 평균 41억 1천만원의 손실을 입은 것으로 나타났다. 전 세계 500개 이상의 기업 및 조직에서 경험한 실제 데이터 유출 사례를 심층 분석한 이 연구에 따르면, 코로나 기간 동안 기업들은 급격한 운영 변화로 인해 보안 사고를 통제하기 더욱 어려워졌으며, 보안 사고로 인한 관련 비용도 높아져 전년 대비 약 10% 증가한 것으로 나타났다.   지난해 많은 기업들은 직원들에게 재택근무를 장려하거나 요구함에 따라 기술 접근 방식도 이에 맞춰 신속하게 조정해야 했으며, 60%의 조직이 코로나 기간 동안 클라우드 기반 활동을 확대했다. 오늘 발표된 조사 결과에 따르면 기업의 보안 수준이 이러한 급격한 IT 변화에 따라가지 못해 조직의 데이터 유출에 대응하는 능력이 저하되었을 수 있음을 알 수 있다. 포네몬 연구소(Ponemon Institute)가 실시하고 IBM 시큐리티가 분석한 연간 데이터 유출 피해 보고서는 다음과 같은 추세를 밝혀냈다.   원격 근무의 영향: 코로나 기간 동안 원격 근무로 빠르게 전환되면서 데이터 유출와 관련된 피해 금액은 더 높아졌다. 원격 근무가 데이터 유출 사고의 요인에 포함된 경우, 포함되지 않는 경우보다 관련 피해 금액이 평균 100만 달러가 더 높다. (원격 근무 포함 시 496만 달러 vs. 미포함 시 389만 달러)   의료 업계 피해 급증: 코로나 기간 동안 운영상의 변화가 컸던 업계(의료, 소매, 서비스, 소비자 제조/유통)는 전년 대비 데이터 유출 피해 금액이 크게 증가했다. 특히, 의료 업계의 유출 사고 피해액은 사고당 923만 달러로 전년 대비 ...

2021.08.02

인터뷰ㅣ"기술 회사도 IT 현대화해야 한다" 키사이트 테크놀로지스 CIO

‘구성 가능한 아키텍처’와 ‘애자일 프로세스’ 못지않게 ‘성장형 사고방식’도 중요하다. 이와 관련해 키사이트 테크놀로지스(KeysightTechnologies)의 CIO 댄 크랜츠와 이야기를 나눠봤다.  지난 1999년 휴렛 팩커드(Hewlett-Packard)는 테스트 및 측정 사업을 분사하여 애질런트 테크놀로지스(Agilent Technologies)를 설립했다. 이는 당시 실리콘밸리 역사상 최대 규모의 기업 공개(IPO)였다.  그 이후 10년 동안 애질런트는 1) 생명과학 기술 및 화학분석 솔루션, 2) 전자 기기라는 2가지 사업 부문을 운영했다. 그리고 2014년 생명과학 사업부가 크게 성장하면서 애질런트는 전자 사업부를 분사해 키사이트 테크놀로지(Keysight Technologies)를 출범했다. 당시 IT 분리를 이끌었던 댄 크랜츠는 2017년 키사이트의 CIO로 취임했다.    키사이트는 ▲제품 판매에서 산업 솔루션 판매로의 전환, ▲R&D 투자 확대, ▲신규 회사 인수라는 3가지 전략을 추진해 연간 매출을 28억 달러에서 56억 달러로 증가시켰다.  크랜츠는 (이러한 성장을 뒷받침하기 위해) IT에도 일련의 새로운 비즈니스 역량이 요구됐다고 밝혔다. 이를테면 디지털 인게이지먼트 기술, 역동적인 공급망, 보증 기반 하드웨어에서 서브스크립션 기반 소프트웨어로 전환하는 제품군 지원 역량 등이다.  그는 IT 환경 안정화는 기본이었다고 말하면서, 새로운 비즈니스 역량을 제공하고 앞으로의 성장을 지원하기 위해서는 IT를 변혁해야 했다고 언급했다.  ‘클라우드 퍼스트’ 그리고 ‘구성 가능한’ 아키텍처  크랜츠는 “기술 회사라면 당연히 현대화된 IT를 기반으로 운영되리라 생각할 수 있다”라며, “하지만 기술회사 역시 (다른 모든 기업과 마찬가지로) IT를 현대화해야 한다. 이를테면 시장에선 선도적인 양자 컴퓨팅 기능을 제공하지만 기저에서는 15년된 IT 인프라를 사...

디지털 트랜스포메이션 IT 트랜스포메이션 빅 데이터 데이터 활용 클라우드 아키텍처 성장형 사고방식 현대화 애자일

2021.07.30

‘구성 가능한 아키텍처’와 ‘애자일 프로세스’ 못지않게 ‘성장형 사고방식’도 중요하다. 이와 관련해 키사이트 테크놀로지스(KeysightTechnologies)의 CIO 댄 크랜츠와 이야기를 나눠봤다.  지난 1999년 휴렛 팩커드(Hewlett-Packard)는 테스트 및 측정 사업을 분사하여 애질런트 테크놀로지스(Agilent Technologies)를 설립했다. 이는 당시 실리콘밸리 역사상 최대 규모의 기업 공개(IPO)였다.  그 이후 10년 동안 애질런트는 1) 생명과학 기술 및 화학분석 솔루션, 2) 전자 기기라는 2가지 사업 부문을 운영했다. 그리고 2014년 생명과학 사업부가 크게 성장하면서 애질런트는 전자 사업부를 분사해 키사이트 테크놀로지(Keysight Technologies)를 출범했다. 당시 IT 분리를 이끌었던 댄 크랜츠는 2017년 키사이트의 CIO로 취임했다.    키사이트는 ▲제품 판매에서 산업 솔루션 판매로의 전환, ▲R&D 투자 확대, ▲신규 회사 인수라는 3가지 전략을 추진해 연간 매출을 28억 달러에서 56억 달러로 증가시켰다.  크랜츠는 (이러한 성장을 뒷받침하기 위해) IT에도 일련의 새로운 비즈니스 역량이 요구됐다고 밝혔다. 이를테면 디지털 인게이지먼트 기술, 역동적인 공급망, 보증 기반 하드웨어에서 서브스크립션 기반 소프트웨어로 전환하는 제품군 지원 역량 등이다.  그는 IT 환경 안정화는 기본이었다고 말하면서, 새로운 비즈니스 역량을 제공하고 앞으로의 성장을 지원하기 위해서는 IT를 변혁해야 했다고 언급했다.  ‘클라우드 퍼스트’ 그리고 ‘구성 가능한’ 아키텍처  크랜츠는 “기술 회사라면 당연히 현대화된 IT를 기반으로 운영되리라 생각할 수 있다”라며, “하지만 기술회사 역시 (다른 모든 기업과 마찬가지로) IT를 현대화해야 한다. 이를테면 시장에선 선도적인 양자 컴퓨팅 기능을 제공하지만 기저에서는 15년된 IT 인프라를 사...

2021.07.30

김진철의 How-to-Big Dataㅣ에필로그 – 맺는 글

LHC 빅데이터의 미래 – FCC와 새로운 입자 물리학 실험들 LHC 실험은 2018년까지 13TeV, 190fb-1의 목표 성능에 대한 계획된 실험을 마치고 현재 가동을 잠시 중단한 상태다. 2027년 9월로 예정되어 있는 고광도 LHC(High-Luminosity LHC; HL-LHC) 실험을 위해 LHC 주 가속기와 ATLAS, CMS, ALICE, LHCb의 주요 검출기들의 성능을 높이기 위해서는 목표 성능을 낼 수 있도록 많은 부품과 장치들을 새롭게 제작, 교체해야 한다. 지금은 시운전, 테스트를 준비하며 LHC 주 가속기와 검출기들을 업그레이드하고 있다.   COVID-19 바이러스는 CERN의 LHC 실험에도 영향을 미쳐서 LHC 실험의 일정을 지연시켰다. 원래 HL-LHC 실험을 위한 검출기들의 1차 업그레이드를 완료하고 첫 빔 테스트와 시운전을 진행할 예정이었던 2021년 5월에서 4개월 지연된 2021년 9월에 첫 빔 테스트를 진행할 예정이다. 예상치 못했던 COVID-19 바이러스 사태때문에 앞으로 COVID-19 바이러스 확산 상태에 따라 LHC 실험 일정이 다시 변경될 가능성도 있지만, 현재까지의 상황을 보면 2022년 5월부터 원래 예정되었던 LHC 세 번째 실험(Run3)이 진행될 가능성이 높다. LHC 주 가속기가 업그레이드되어 양성자 빔이 14TeV의 목표 에너지와 3000fb-1의 반응 크로스 섹션(cross section)에 도달하면, LHC 실험 초반에 20 ~ 40PB 규모의 3차원 영상 이벤트 데이터를 쏟아냈던 ATLAS, CMS, ALICE, LHCb 네 개의 검출기들은 LHC 빔 충돌 지점(interaction point)에서 일어날 수 이벤트의 빈도가 LHC 건설 당시 100배이상 높아지게 되면서 이에 따라 각 검출기들이 생산해내는 이벤트 영상 데이터의 양도 크게 증가할 것으로 보인다.  HL-LHC 업그레이드에 따른 LHC 가속기와 주요 검출기들의 성능 향상도 LHC 빅데이터의 증가에 영향...

김진철 빅데이터 데이터 과학 입자 물리학 양자 컴퓨팅 인공지능 딥러닝 5G

2021.07.29

LHC 빅데이터의 미래 – FCC와 새로운 입자 물리학 실험들 LHC 실험은 2018년까지 13TeV, 190fb-1의 목표 성능에 대한 계획된 실험을 마치고 현재 가동을 잠시 중단한 상태다. 2027년 9월로 예정되어 있는 고광도 LHC(High-Luminosity LHC; HL-LHC) 실험을 위해 LHC 주 가속기와 ATLAS, CMS, ALICE, LHCb의 주요 검출기들의 성능을 높이기 위해서는 목표 성능을 낼 수 있도록 많은 부품과 장치들을 새롭게 제작, 교체해야 한다. 지금은 시운전, 테스트를 준비하며 LHC 주 가속기와 검출기들을 업그레이드하고 있다.   COVID-19 바이러스는 CERN의 LHC 실험에도 영향을 미쳐서 LHC 실험의 일정을 지연시켰다. 원래 HL-LHC 실험을 위한 검출기들의 1차 업그레이드를 완료하고 첫 빔 테스트와 시운전을 진행할 예정이었던 2021년 5월에서 4개월 지연된 2021년 9월에 첫 빔 테스트를 진행할 예정이다. 예상치 못했던 COVID-19 바이러스 사태때문에 앞으로 COVID-19 바이러스 확산 상태에 따라 LHC 실험 일정이 다시 변경될 가능성도 있지만, 현재까지의 상황을 보면 2022년 5월부터 원래 예정되었던 LHC 세 번째 실험(Run3)이 진행될 가능성이 높다. LHC 주 가속기가 업그레이드되어 양성자 빔이 14TeV의 목표 에너지와 3000fb-1의 반응 크로스 섹션(cross section)에 도달하면, LHC 실험 초반에 20 ~ 40PB 규모의 3차원 영상 이벤트 데이터를 쏟아냈던 ATLAS, CMS, ALICE, LHCb 네 개의 검출기들은 LHC 빔 충돌 지점(interaction point)에서 일어날 수 이벤트의 빈도가 LHC 건설 당시 100배이상 높아지게 되면서 이에 따라 각 검출기들이 생산해내는 이벤트 영상 데이터의 양도 크게 증가할 것으로 보인다.  HL-LHC 업그레이드에 따른 LHC 가속기와 주요 검출기들의 성능 향상도 LHC 빅데이터의 증가에 영향...

2021.07.29

에쓰오씨소프트, 경상남도 제로페이 사용자 결제데이터 분석 사업 수주

에쓰오씨소프트가 경상남도 제로페이 사용자 결제 데이터 분석 사업을 수주했다고 밝혔다.  이번 사업은 경상남도가 소상공인을 지원하기 위해 추진했던 제로페이 및 경남사랑상품권의 효과를 분석해 데이터에 기반한 제로페이 및 상품권활성화 전략을 수립하기 위해 추진하는 사업이다. 사업은 이달부터 약 3개월간 진행된다. 앞서 경상남도는 코로나로 매출 경감을 겪는 소상공인을 위해 올 3분기 소상공인 정책자금으로 350억 원 융자지원하며, 제로페이 분야에 50억 원을 할당하기로 했다. 적극적인 제로페이 신규 가맹점 확대를 통해 소상공인 매출상승과 지역경제 살리기를 목표로 하고 있다. 에쓰오씨소프트는 이번 사업에서 제로페이와 경남사랑상품권의 결제 데이터를 분석해 지역별, 업종별, 성별, 연령별, 시간대별 이용 현황 및 소비패턴을 분석할 계획이다.  또 새로운 정책 인사이트를 도출할 수 있도록 가맹점 비용(수수료 절감) 및 매출에 미치는 영향 분석, 소비자 상품권 이용에 대한 소득효과 및 대체효과 분석, 역외 자금 유출방지 및 지역 상권 활성화 효과 분석, 예산 투입 대비 제로페이 및 상품권 활성화 분석 등 심층 분석을 함께 한다. ciokr@idg.co.kr

에쓰오씨소프트

2021.07.28

에쓰오씨소프트가 경상남도 제로페이 사용자 결제 데이터 분석 사업을 수주했다고 밝혔다.  이번 사업은 경상남도가 소상공인을 지원하기 위해 추진했던 제로페이 및 경남사랑상품권의 효과를 분석해 데이터에 기반한 제로페이 및 상품권활성화 전략을 수립하기 위해 추진하는 사업이다. 사업은 이달부터 약 3개월간 진행된다. 앞서 경상남도는 코로나로 매출 경감을 겪는 소상공인을 위해 올 3분기 소상공인 정책자금으로 350억 원 융자지원하며, 제로페이 분야에 50억 원을 할당하기로 했다. 적극적인 제로페이 신규 가맹점 확대를 통해 소상공인 매출상승과 지역경제 살리기를 목표로 하고 있다. 에쓰오씨소프트는 이번 사업에서 제로페이와 경남사랑상품권의 결제 데이터를 분석해 지역별, 업종별, 성별, 연령별, 시간대별 이용 현황 및 소비패턴을 분석할 계획이다.  또 새로운 정책 인사이트를 도출할 수 있도록 가맹점 비용(수수료 절감) 및 매출에 미치는 영향 분석, 소비자 상품권 이용에 대한 소득효과 및 대체효과 분석, 역외 자금 유출방지 및 지역 상권 활성화 효과 분석, 예산 투입 대비 제로페이 및 상품권 활성화 분석 등 심층 분석을 함께 한다. ciokr@idg.co.kr

2021.07.28

한글과컴퓨터, 관세청 ‘스마트 관세 행정’ 구축 사업 참여

한글과컴퓨터(이하 한컴)가 관세청의 ‘빅데이터 플랫폼 구축 및 분석 모델 개발‘ 사업에 참여해 인공지능 기술 기반의 광학문자인식(OCR) 솔루션을 공급한다고 밝혔다. 한컴은 관세청이 ‘스마트 관세 행정(Smart Customs)’ 구현을 위해 지난해부터 시작한 ‘빅데이터 플랫폼 구축 및 분석 모델 개발’ 사업에 KCNET과 컨소시엄을 구성해 참여했다.  한컴은 관세청에 접수되는 다양한 통관 서류에 담긴 국가명, 협정명, 발급기관명, 날짜, 인장 등 8개의 텍스트 및 이미지 정보를 OCR로 자동으로 추출해 데이터화할 수 있도록 하는 분석 과제 개발을 지원한다. 또한, 국가별로 양식이 다른 비정형 문서인 인보이스 문서에서 필수 정보를 보다 효과적으로 추출해 수출입신고 작성에 도움을 주고, 활용 분야를 확대할 수 있도록 OCR 엔진 고도화도 함께 추진한다. 이를 통해 관세청은 국가별로 양식이 다른 통관 서류를 데이터화해 보다 효율적인 관세 행정을 구현하는 한편, 빅데이터 기반의 관세 행정 혁신을 추진해나갈 계획이다. 한글과컴퓨터 김대기 총괄 부사장은 “한컴의 OCR 솔루션은 외산 솔루션과 대등한 기술력과 경쟁력을 보유하고 있는 만큼, 관세청의 스마트 세관 구축에 기여할 것으로 자신한다”라며, “이번 사업이 성공리에 마무리될 수 있도록 지원을 아끼지 않겠다”라고 말했다. ciokr@idg.co.kr

한글과컴퓨터

2021.07.28

한글과컴퓨터(이하 한컴)가 관세청의 ‘빅데이터 플랫폼 구축 및 분석 모델 개발‘ 사업에 참여해 인공지능 기술 기반의 광학문자인식(OCR) 솔루션을 공급한다고 밝혔다. 한컴은 관세청이 ‘스마트 관세 행정(Smart Customs)’ 구현을 위해 지난해부터 시작한 ‘빅데이터 플랫폼 구축 및 분석 모델 개발’ 사업에 KCNET과 컨소시엄을 구성해 참여했다.  한컴은 관세청에 접수되는 다양한 통관 서류에 담긴 국가명, 협정명, 발급기관명, 날짜, 인장 등 8개의 텍스트 및 이미지 정보를 OCR로 자동으로 추출해 데이터화할 수 있도록 하는 분석 과제 개발을 지원한다. 또한, 국가별로 양식이 다른 비정형 문서인 인보이스 문서에서 필수 정보를 보다 효과적으로 추출해 수출입신고 작성에 도움을 주고, 활용 분야를 확대할 수 있도록 OCR 엔진 고도화도 함께 추진한다. 이를 통해 관세청은 국가별로 양식이 다른 통관 서류를 데이터화해 보다 효율적인 관세 행정을 구현하는 한편, 빅데이터 기반의 관세 행정 혁신을 추진해나갈 계획이다. 한글과컴퓨터 김대기 총괄 부사장은 “한컴의 OCR 솔루션은 외산 솔루션과 대등한 기술력과 경쟁력을 보유하고 있는 만큼, 관세청의 스마트 세관 구축에 기여할 것으로 자신한다”라며, “이번 사업이 성공리에 마무리될 수 있도록 지원을 아끼지 않겠다”라고 말했다. ciokr@idg.co.kr

2021.07.28

칼럼ㅣAI 프로젝트 악순환 고리 끊어라··· 'ML옵스' 마인드셋이 필요한 이유

커뮤니케이션 격차(communications gap)로 인해 프로덕션 단계에 도달하지 못하는 AI 프로젝트가 부지기수다.  AI 프로젝트를 아이디어에서 현실로 옮기는 것은 악순환이다. 이를 해결하는 방법은 한 가지뿐이다. 애초에 순환을 시작하지 않는 것이다.데이터는 모든 단계에서 전문적인 처리를 거쳐야 하기 때문이다. 다양한 소스에서 데이터를 추출하는 것부터 시작해 데이터 정리, 분석, 채우기까지 기존 아키텍처에 ‘ML옵스(MLOps)’, 즉 머신러닝에 관한 운영적 접근법이 없다면 머신러닝 시스템은 지연되기 쉽다.    대부분의 AI 프로젝트가 프로덕션 단계까지 가지 못하는 이유는 매우 기본적인 것처럼 보이지만 큰 영향을 미치는 격차 때문이다. 바로 데이터 과학자와 비즈니스 간 부적절한 커뮤니케이션이다.  IDC에서 진행한 설문조사 결과도 데이터 과학자와 비즈니스 간 지속적인 인게이지먼트가 중요하다고 말한다. 따라서 기업들은 즉시 사용할 수 있는 솔루션을 찾게 됐고, 바로 여기에서 ML옵스가 등장한다.  ML옵스 전략은 다음에 중점을 둔다. • 신속한 처리를 위해 데이터 추출, 모델 생성, 배포 및 모니터링에 엔드투엔드 가시성 제공 • 버전 관리 데이터 및 메타데이터 등 관련 아티팩트를 모두 저장해 프로덕션 모델의 감사 및 복제 시간 단축 • 변화하는 환경 및 요건에 따른 손쉬운 모델 재학습 • 빠르고 안전하며 정확한 ML 시스템 테스트 하지만 ML 모델을 개발, 구축 또는 학습시키는 것은 주요한 병목 요인이 아니다. 프로덕션 환경에서 큰 중단 없이 지속적인 운영을 위한 통합 AI 시스템을 구축하는 것이 실질적인 과제다.  예를 들면 ML 솔루션을 온디맨드 방식으로 배포해야 하는 조직은 실험 코드를 반복적으로 다시 작성할 수밖에 없다. 이 접근법은 애매해서 성공으로 끝날 수도 있고 그렇지 않을 수도 있다. 이게 바로 ML옵스가 해결하려고 하는 것이다.  간단히 말해, ML 모델용 ...

AI 인공지능 ML 머신러닝 ML옵스 데이터 과학 데이터옵스

2021.07.26

커뮤니케이션 격차(communications gap)로 인해 프로덕션 단계에 도달하지 못하는 AI 프로젝트가 부지기수다.  AI 프로젝트를 아이디어에서 현실로 옮기는 것은 악순환이다. 이를 해결하는 방법은 한 가지뿐이다. 애초에 순환을 시작하지 않는 것이다.데이터는 모든 단계에서 전문적인 처리를 거쳐야 하기 때문이다. 다양한 소스에서 데이터를 추출하는 것부터 시작해 데이터 정리, 분석, 채우기까지 기존 아키텍처에 ‘ML옵스(MLOps)’, 즉 머신러닝에 관한 운영적 접근법이 없다면 머신러닝 시스템은 지연되기 쉽다.    대부분의 AI 프로젝트가 프로덕션 단계까지 가지 못하는 이유는 매우 기본적인 것처럼 보이지만 큰 영향을 미치는 격차 때문이다. 바로 데이터 과학자와 비즈니스 간 부적절한 커뮤니케이션이다.  IDC에서 진행한 설문조사 결과도 데이터 과학자와 비즈니스 간 지속적인 인게이지먼트가 중요하다고 말한다. 따라서 기업들은 즉시 사용할 수 있는 솔루션을 찾게 됐고, 바로 여기에서 ML옵스가 등장한다.  ML옵스 전략은 다음에 중점을 둔다. • 신속한 처리를 위해 데이터 추출, 모델 생성, 배포 및 모니터링에 엔드투엔드 가시성 제공 • 버전 관리 데이터 및 메타데이터 등 관련 아티팩트를 모두 저장해 프로덕션 모델의 감사 및 복제 시간 단축 • 변화하는 환경 및 요건에 따른 손쉬운 모델 재학습 • 빠르고 안전하며 정확한 ML 시스템 테스트 하지만 ML 모델을 개발, 구축 또는 학습시키는 것은 주요한 병목 요인이 아니다. 프로덕션 환경에서 큰 중단 없이 지속적인 운영을 위한 통합 AI 시스템을 구축하는 것이 실질적인 과제다.  예를 들면 ML 솔루션을 온디맨드 방식으로 배포해야 하는 조직은 실험 코드를 반복적으로 다시 작성할 수밖에 없다. 이 접근법은 애매해서 성공으로 끝날 수도 있고 그렇지 않을 수도 있다. 이게 바로 ML옵스가 해결하려고 하는 것이다.  간단히 말해, ML 모델용 ...

2021.07.26

데이터 과학을 위해 '더 개선된' 최신 필수 파이썬 툴 6가지

데이터 분석을 마스터하려면, 또는 단순히 사용하려고 해도 필요한 것은 결국 파이썬이다. 파이썬은 배우기 쉬우며 지원의 폭도 넓고 깊다. 또한, 거의 모든 데이터 과학 라이브러리와 머신 러닝 프레임워크가 파이썬 인터페이스를 지원한다.   지난 몇 개월 동안 파이썬을 위한 여러 데이터 과학 프로젝트에서 주요 기능 업데이트가 포함된 새로운 버전이 나왔다. 실제 수치 계산을 위한 프로젝트도 있고, 이와 같은 작업에 최적화된 빠른 코드를 더 쉽게 작성할 수 있는 프로젝트도 있다. 데이터 과학을 위한 필수 파이썬 툴 6가지를 정리했다.   사이파이 1.7 빠르고 강력한 수학 라이브러리를 원하는 파이썬 사용자에겐 넘파이(Numpy)가 있지만 넘파이 자체는 구체적인 작업에 초점을 두지 않는다. 그래서 필요한 것이 사이파이(SciPy)다. 넘파이를 사용해 선형 대수부터 통계 작업, 신호 처리에 이르기까지 일반적인 수학 및 과학 프로그래밍 작업을 위한 라이브러리를 제공한다. 사이파이는 오래전부터 수학과 통계학을 다루기 위한 편리하고 광범위하게 사용되는 툴을 제공했다. 여러 버전에 걸쳐 강력한 하위 호환성을 제공했지만 1.0 릴리스가 나오기까지 상당히 오랜 시간이 걸렸다. 코어 개발자인 랄프 고머스에 따르면, 사이파이 프로젝트가 버전 1.0이 나올 수 있었던 가장 큰 이유는 프로젝트를 감독, 관리하는 방법의 통합이다. 하지만 맥OS와 윈도우 빌드를 위한 지속적 통합 프로세스와 사전 빌드된 윈도우 바이너리를 제대로 지원한 것도 한몫을 했다. 특히 후자는 윈도우 사용자가 별도 과정 없이 사이파이를 사용할 수 있음을 의미한다. 사이파이 프로젝트는 2017년 1.0 릴리스 이후 지금까지 7차례 주 릴리스를 내놨고 그 과정에서 다음과 같이 부분이 개선됐다.   파이썬 2.7 지원 종료와 그 이후의 코드베이스 현대화 더 많은 기능, 개선된 문서, 많은 새로운 알고리즘(예를 들어 성능이 향상되고 현대화된 인터페이스를 갖춘 새로운 고속 푸리에 변환 모듈...

데이터과학 파이썬 사이파이 넘바 사이썬 대스크 백스 인텔SDC

2021.07.26

데이터 분석을 마스터하려면, 또는 단순히 사용하려고 해도 필요한 것은 결국 파이썬이다. 파이썬은 배우기 쉬우며 지원의 폭도 넓고 깊다. 또한, 거의 모든 데이터 과학 라이브러리와 머신 러닝 프레임워크가 파이썬 인터페이스를 지원한다.   지난 몇 개월 동안 파이썬을 위한 여러 데이터 과학 프로젝트에서 주요 기능 업데이트가 포함된 새로운 버전이 나왔다. 실제 수치 계산을 위한 프로젝트도 있고, 이와 같은 작업에 최적화된 빠른 코드를 더 쉽게 작성할 수 있는 프로젝트도 있다. 데이터 과학을 위한 필수 파이썬 툴 6가지를 정리했다.   사이파이 1.7 빠르고 강력한 수학 라이브러리를 원하는 파이썬 사용자에겐 넘파이(Numpy)가 있지만 넘파이 자체는 구체적인 작업에 초점을 두지 않는다. 그래서 필요한 것이 사이파이(SciPy)다. 넘파이를 사용해 선형 대수부터 통계 작업, 신호 처리에 이르기까지 일반적인 수학 및 과학 프로그래밍 작업을 위한 라이브러리를 제공한다. 사이파이는 오래전부터 수학과 통계학을 다루기 위한 편리하고 광범위하게 사용되는 툴을 제공했다. 여러 버전에 걸쳐 강력한 하위 호환성을 제공했지만 1.0 릴리스가 나오기까지 상당히 오랜 시간이 걸렸다. 코어 개발자인 랄프 고머스에 따르면, 사이파이 프로젝트가 버전 1.0이 나올 수 있었던 가장 큰 이유는 프로젝트를 감독, 관리하는 방법의 통합이다. 하지만 맥OS와 윈도우 빌드를 위한 지속적 통합 프로세스와 사전 빌드된 윈도우 바이너리를 제대로 지원한 것도 한몫을 했다. 특히 후자는 윈도우 사용자가 별도 과정 없이 사이파이를 사용할 수 있음을 의미한다. 사이파이 프로젝트는 2017년 1.0 릴리스 이후 지금까지 7차례 주 릴리스를 내놨고 그 과정에서 다음과 같이 부분이 개선됐다.   파이썬 2.7 지원 종료와 그 이후의 코드베이스 현대화 더 많은 기능, 개선된 문서, 많은 새로운 알고리즘(예를 들어 성능이 향상되고 현대화된 인터페이스를 갖춘 새로운 고속 푸리에 변환 모듈...

2021.07.26

‘소수의 영웅적 활동 넘어서게’··· 렉스마크의 데이터 혁신 여정

매주 생성되는 테라바이트 단위의 데이터에서 비즈니스 가치를 뽑아내기 위해, 그리고 데이터 사일로를 제거하기 위해 렉스마크는 단일 엔드투엔드 데이터 소스 아키텍처를 구축했다.    글로벌 프린터 및 이미징 제품 제조회사 렉스마크 인터내셔널(Lexmark International)에서는 데이터가 매일 쏟아진다. 렉스마크 관리 인쇄 서비스만 해도 약 100만 대의 프린터와 복합기가 등록돼 있어 매주 테라바이트 이상의 데이터를 생성하고 있다. 현장에 보급된 600만 대 이상의 프린터 역시 고객이 동의한 경우 데이터가 렉스마크와 공유된다.  그 데이터를 관리하고 그 데이터에서 인사이트를 얻는 일은 벅찬 일이었다. 이를 위해 회사는 ‘렉스마크 PDT(Product Digital Thread)’를 만들었다. PDT는 제품의 설계에서부터 재활용에 이르는 전체 생애주기에서 걸쳐 생성되는 실시간 데이터에 대한 실시간 통합 저장소 겸 감사 추적 시스템이다. 렉스마크 트랜스포메이션 제품 책임자 앤디 코프는 “(PDT 덕분에) 핵심 인쇄 부품은 물론 여타 하드웨어와 소모품 등이 생애주기에 걸쳐 활용되는 상호 연관 데이터가 생성되고 있다”라고 설명했다.  그는 이어 “이것이 제대로 드러나는 곳은 애저(Azure) 데이터 레이크 내의 소위 원시, 정제, 소비 등의 계층이다. 이 3개의 데이터 계층은 비즈니스 사용자 종류의 전 범위에 걸쳐 사용자들을 지원하고 우리가 해야 하는 애널리틱스를 지원한다”라고 덧붙였다. 렉스마크의 데이터 과제 렉스마크의 힘든 점은 데이터 용량만이 아니었다. 렉스마크의 데이터가 CADD, PLM, ERP, CRM 등 글로벌 제조회사들의 대표적인 비즈니스 애플리케이션들에 걸쳐 퍼져 있는 것도 문제였다. 게다가 렉스마크의 공급망은 고도로 분산되어 있어서 제품의 설계, 제작, 입고, 유통을 위해 협력을 준비하려면 여러 벽을 넘어 데이터를 전달해야 한다. 코프는 “대규모 글로벌 제조업체가 다 그렇듯이 렉스마크의 비즈니스는...

데이터 사일로 데이터 영웅 렉스마트 PDT 데이터 민주화

2021.07.23

매주 생성되는 테라바이트 단위의 데이터에서 비즈니스 가치를 뽑아내기 위해, 그리고 데이터 사일로를 제거하기 위해 렉스마크는 단일 엔드투엔드 데이터 소스 아키텍처를 구축했다.    글로벌 프린터 및 이미징 제품 제조회사 렉스마크 인터내셔널(Lexmark International)에서는 데이터가 매일 쏟아진다. 렉스마크 관리 인쇄 서비스만 해도 약 100만 대의 프린터와 복합기가 등록돼 있어 매주 테라바이트 이상의 데이터를 생성하고 있다. 현장에 보급된 600만 대 이상의 프린터 역시 고객이 동의한 경우 데이터가 렉스마크와 공유된다.  그 데이터를 관리하고 그 데이터에서 인사이트를 얻는 일은 벅찬 일이었다. 이를 위해 회사는 ‘렉스마크 PDT(Product Digital Thread)’를 만들었다. PDT는 제품의 설계에서부터 재활용에 이르는 전체 생애주기에서 걸쳐 생성되는 실시간 데이터에 대한 실시간 통합 저장소 겸 감사 추적 시스템이다. 렉스마크 트랜스포메이션 제품 책임자 앤디 코프는 “(PDT 덕분에) 핵심 인쇄 부품은 물론 여타 하드웨어와 소모품 등이 생애주기에 걸쳐 활용되는 상호 연관 데이터가 생성되고 있다”라고 설명했다.  그는 이어 “이것이 제대로 드러나는 곳은 애저(Azure) 데이터 레이크 내의 소위 원시, 정제, 소비 등의 계층이다. 이 3개의 데이터 계층은 비즈니스 사용자 종류의 전 범위에 걸쳐 사용자들을 지원하고 우리가 해야 하는 애널리틱스를 지원한다”라고 덧붙였다. 렉스마크의 데이터 과제 렉스마크의 힘든 점은 데이터 용량만이 아니었다. 렉스마크의 데이터가 CADD, PLM, ERP, CRM 등 글로벌 제조회사들의 대표적인 비즈니스 애플리케이션들에 걸쳐 퍼져 있는 것도 문제였다. 게다가 렉스마크의 공급망은 고도로 분산되어 있어서 제품의 설계, 제작, 입고, 유통을 위해 협력을 준비하려면 여러 벽을 넘어 데이터를 전달해야 한다. 코프는 “대규모 글로벌 제조업체가 다 그렇듯이 렉스마크의 비즈니스는...

2021.07.23

'애널리틱스 클래스'마다 다르다··· 3가지 등급별 용도와 특징

분석(Analytics)은 모든 현대 SaaS 애플리케이션의 핵심이다. SaaS 애플리케이션을 성공적으로 운영하기 위해서는 애플리케이션의 성능이 어느 정도인지, 무슨 일을 하는지, 목표 달성에 얼만큼 성공하고 있는지를 모니터링해야 한다.   그러나 현대 애플리케이션이 모니터링하고 점검해야 할 분석의 유형은 많다. 분석의 목적과 가치, 정확성, 신뢰성은 어떻게 측정하고 사용되는지, 그리고 누가 사용하는지에 따라 크게 좌우된다. 기본적으로는 3가지 클래스의 분석이 있으며 각각의 사용례는 확연히 다르다. 클래스 A 분석, 미션 크리티컬한 애플리케이션 운영 클래스 A 분석은 애플리케이션의 미션 크리티컬 메트릭이다. 이 분석이 없으면 애플리케이션 작동이 즉시 멈출 수 있다. 애플리케이션 운영을 평가하고 성능을 조정하고 동적으로 수정해 애플리케이션 기능을 유지하는 데 사용되는 메트릭이다. 분석은 애플리케이션 운영 환경을 지속적으로 모니터링하고 개선하는 피드백 루프의 일부분이다. 클래스 A 분석의 대표적인 예는 오토스케일링(autoscaling)에 사용되는 메트릭이다. 이와 같은 메트릭은 애플리케이션의 부하가 변동함에 따라 현재의 수요를 충족 또는 초과하도록 인프라 크기를 동적으로 변경하는 데 사용된다. 잘 알려진 예로 AWS 오토스케일링(Auto Scaling) 클라우드 서비스가 있다. 이 서비스는 특정 아마존 클라우드워치(CloudWatch) 메트릭을 자동으로 모니터링하면서 트리거와 임계치를 관찰한다.  특정 메트릭이 특정 조건에 도달하면 AWS 오토스케일링은 아마존 EC2 인스턴스를 애플리케이션에 추가 또는 제거해 애플리케이션을 운영하는 데 사용되는 자원을 자동으로 조정한다. 더 많은 자원이 필요하면 인스턴스를 추가하고, 메트릭에 자원이 더 이상 필요없는 것으로 나타나면 인스턴스에서 리소스를 제거한다. AWS 오토스케일링을 활용하면 원하는 수의 EC2 인스턴스로 구성된 서비스를 만든 다음, 트래픽과 부하 요구사항에 따라 자동으로 서버를...

분석 오토스케일링

2021.07.23

분석(Analytics)은 모든 현대 SaaS 애플리케이션의 핵심이다. SaaS 애플리케이션을 성공적으로 운영하기 위해서는 애플리케이션의 성능이 어느 정도인지, 무슨 일을 하는지, 목표 달성에 얼만큼 성공하고 있는지를 모니터링해야 한다.   그러나 현대 애플리케이션이 모니터링하고 점검해야 할 분석의 유형은 많다. 분석의 목적과 가치, 정확성, 신뢰성은 어떻게 측정하고 사용되는지, 그리고 누가 사용하는지에 따라 크게 좌우된다. 기본적으로는 3가지 클래스의 분석이 있으며 각각의 사용례는 확연히 다르다. 클래스 A 분석, 미션 크리티컬한 애플리케이션 운영 클래스 A 분석은 애플리케이션의 미션 크리티컬 메트릭이다. 이 분석이 없으면 애플리케이션 작동이 즉시 멈출 수 있다. 애플리케이션 운영을 평가하고 성능을 조정하고 동적으로 수정해 애플리케이션 기능을 유지하는 데 사용되는 메트릭이다. 분석은 애플리케이션 운영 환경을 지속적으로 모니터링하고 개선하는 피드백 루프의 일부분이다. 클래스 A 분석의 대표적인 예는 오토스케일링(autoscaling)에 사용되는 메트릭이다. 이와 같은 메트릭은 애플리케이션의 부하가 변동함에 따라 현재의 수요를 충족 또는 초과하도록 인프라 크기를 동적으로 변경하는 데 사용된다. 잘 알려진 예로 AWS 오토스케일링(Auto Scaling) 클라우드 서비스가 있다. 이 서비스는 특정 아마존 클라우드워치(CloudWatch) 메트릭을 자동으로 모니터링하면서 트리거와 임계치를 관찰한다.  특정 메트릭이 특정 조건에 도달하면 AWS 오토스케일링은 아마존 EC2 인스턴스를 애플리케이션에 추가 또는 제거해 애플리케이션을 운영하는 데 사용되는 자원을 자동으로 조정한다. 더 많은 자원이 필요하면 인스턴스를 추가하고, 메트릭에 자원이 더 이상 필요없는 것으로 나타나면 인스턴스에서 리소스를 제거한다. AWS 오토스케일링을 활용하면 원하는 수의 EC2 인스턴스로 구성된 서비스를 만든 다음, 트래픽과 부하 요구사항에 따라 자동으로 서버를...

2021.07.23

기고 | 내부 데이터옵스팀 구축하기··· ‘7가지 조언’

많은 기업들이 데이터를 더 현명하게, 더 생산적으로 활용하기 원한다. 데이터옵스(Dataops)에 탄력이 붙고 있는 배경이다. 또 예측 모델 생성, 소비자 행동에 대한 인사이트 강화, 사이버 위협 감지 및 관리 등의 과제 관리에 머신러닝을 사용하는 사례가 증가하면서 데이터옵스(데이터 관리)의 중요성이 높아지고 있다. 정교한 데이터 세트를 신속히 자동으로, 또는 반자동으로 조사할 수 있는 변화를 도입할 수 있는 비즈니스는 강력한 시장 경쟁력을 얻게 될 것이다. 기업들이 더 강력하고 발전된 분석이라는 도전과제를 고려하는 가운데, 일부는 ‘서비스로서의 데이터옵스’(Dataops-as-a-service)를 도입하고 있다. 이는 기업 데이터 활용 업무를 아웃소싱 한다는 의미이다.  이 방법으로 인재와 관련된 일부 문제를 해결하고, 데이터 분석 여정에 박차를 가할 수 있지만, 동시에 위험도 수반된다. 데이터 분석 이면에 존재하는 비즈니스 동인이 외주 기업과 공유되기 어렵다는 점이다. 자칫하면 기업의 데이터 니즈를 아웃소싱 해도 필요한 데이터 인텔리전스를 얻을 수 없게 된다. 여기에 데이터 보호 관련 위험이 커질 수 있다. 다른 선택지가 있다. 내부 데이터옵스 팀을 구축하는 것이다. 물론 이 방식에도 도전과제가 따른다. 또 적합한 팀 구성원을 찾거나, 좋은 데브옵스 이니셔티브를 모방하는 것 이상이 필요하다. 그러나 이렇게 노력할 가치가 있다. 잘 수행된 데이터옵스 이니셔티브는 BI와 경쟁력을 강화해주고, 데이터의 정확성을 높여주며, 한 장소에서 데이터와 개발 관련 정보들을 결합해 제품의 결함을 줄여준다. 다음은 성과를 내는 내부 데이터옵스 이니셔티브를 만드는 7가지 방법이다. 데브옵스 문화를 활용 데브옵스 문화와 관행이 정착된 기업은 데이터옵스를 구현할 때 이점을 갖고 있다.  더 큰 비즈니스 목표에 집중하기 위해 개발과 운영 팀을 통합한다는 힘든 과업을 완수한 기업들이다. 즉 이러한 기업들은 데이터 전문가를 추가해 데이터옵스 이니셔티브를 만들...

데이터옵스 데이터 운영 데브옵스

2021.07.19

많은 기업들이 데이터를 더 현명하게, 더 생산적으로 활용하기 원한다. 데이터옵스(Dataops)에 탄력이 붙고 있는 배경이다. 또 예측 모델 생성, 소비자 행동에 대한 인사이트 강화, 사이버 위협 감지 및 관리 등의 과제 관리에 머신러닝을 사용하는 사례가 증가하면서 데이터옵스(데이터 관리)의 중요성이 높아지고 있다. 정교한 데이터 세트를 신속히 자동으로, 또는 반자동으로 조사할 수 있는 변화를 도입할 수 있는 비즈니스는 강력한 시장 경쟁력을 얻게 될 것이다. 기업들이 더 강력하고 발전된 분석이라는 도전과제를 고려하는 가운데, 일부는 ‘서비스로서의 데이터옵스’(Dataops-as-a-service)를 도입하고 있다. 이는 기업 데이터 활용 업무를 아웃소싱 한다는 의미이다.  이 방법으로 인재와 관련된 일부 문제를 해결하고, 데이터 분석 여정에 박차를 가할 수 있지만, 동시에 위험도 수반된다. 데이터 분석 이면에 존재하는 비즈니스 동인이 외주 기업과 공유되기 어렵다는 점이다. 자칫하면 기업의 데이터 니즈를 아웃소싱 해도 필요한 데이터 인텔리전스를 얻을 수 없게 된다. 여기에 데이터 보호 관련 위험이 커질 수 있다. 다른 선택지가 있다. 내부 데이터옵스 팀을 구축하는 것이다. 물론 이 방식에도 도전과제가 따른다. 또 적합한 팀 구성원을 찾거나, 좋은 데브옵스 이니셔티브를 모방하는 것 이상이 필요하다. 그러나 이렇게 노력할 가치가 있다. 잘 수행된 데이터옵스 이니셔티브는 BI와 경쟁력을 강화해주고, 데이터의 정확성을 높여주며, 한 장소에서 데이터와 개발 관련 정보들을 결합해 제품의 결함을 줄여준다. 다음은 성과를 내는 내부 데이터옵스 이니셔티브를 만드는 7가지 방법이다. 데브옵스 문화를 활용 데브옵스 문화와 관행이 정착된 기업은 데이터옵스를 구현할 때 이점을 갖고 있다.  더 큰 비즈니스 목표에 집중하기 위해 개발과 운영 팀을 통합한다는 힘든 과업을 완수한 기업들이다. 즉 이러한 기업들은 데이터 전문가를 추가해 데이터옵스 이니셔티브를 만들...

2021.07.19

회사명:한국IDG 제호: ITWorld 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 편집인 : 박재곤 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2022 International Data Group. All rights reserved.

10.5.0.5