LHC 실험을 수행하는 물리학자들과 연구자들의 특성 지금까지 LHC 실험을 위한 만든 LHC 가속기와 네 개의 검출기, 그리고 데이터 가공 및 분석을 위한 LHC 데이터 처리 시스템과 WLCG 그리드 컴퓨팅 기술을 소개하면서 빅데이터 기술의 모든 요소... ...
CERN은 왜 오픈소스 컨퍼런스 관리 소프트웨어를 만들었나? – CERN의 Indico 앞서 자세히 소개한 그리드와 클라우드 컴퓨팅 기술, 그리고 팀 버너스 리의 월드 와이드 웹과 같이 현대 인터넷을 만든 다양한 정보 기술들이 탄생한 CER... ...
암호화 이메일 서비스 업체인 포로톤메일(ProtonMail)이 iOS 기기에서 사용할 수 있는 단독형 VPN(virtual private network) 앱을 발표했다. 이에 따라 업체가 지원하는 운영체제는 윈도우와 맥OS, 리눅스, 안드로이드, 그리... ...
LHC 실험을 위한 협력 체계의 구조 LHC는 지구에서 가장 큰 기계일 뿐만 아니라, 건설 및 운영 비용에서도 NASA의 스페이스 셔틀 프로젝트, 허블 망원경과 같은 우주 과학 실험과 현재 프랑스 카다라슈에 건설 중인 ITER 핵융합 실험로와 함께... ...
LHC 실험과 뉴로모픽 엔지니어링 LHC 실험과 같은 거대과학 실험 장치는 건설에만 10~20년이 걸리고, 대량 생산을 위한 물건이나 장치를 만드는 일이 아닌 세계에서 하나뿐인 실험 장치를 만드는 일이다 보니 큰 비용이 들고 그에 따르는 위험 부담... ...
LCG 데이터 병렬 처리 프레임워크 - PROOF 본 연재의 여섯 번째 글에서 잠시 소개했던 LHC 이벤트 데이터를 분석 과정을 잠시 되새겨 보기로 하자. LHC 이벤트 데이터 분석 과정은 먼저 검출기의 Level-1 트리거와 고수준 트리거(hig... ...
CMS 온라인 데이터 수집 시스템의 모니터링 문제 흔히 모니터링하면 어떤 시스템의 상태를 관찰하고 운영하기 위해 필수적으로 만들어야 하는 기능이기도 하면서, 왠지 첨단 기술이 들어가지 않는 허드렛일이라는 생각을 많이 하게 되는 것 같다. 하지만, ... ...
CMS 검출기에 영혼을 주는 CMS 온라인 소프트웨어 지난 열두번째 글에서 소개한 Level-1 트리거는 CMS를 비롯한 LHC 검출기에서 원시 데이터 처리를 위해 데이터 스트림이 가장 먼저 만나는 시스템이다. 초당 1TB 이상 검출기 센서에서 쏟... ...
지난 2015년 포레스터는 기업의 하둡 도입이 필수가 되고, 데이터에서 가치를 끌어내고자 하는 모든 기업은 최소한 하둡을 고려해야 한다고 예측한 바 있다. 하둡이란 무엇인가? 오픈소스 아파치 소프트웨어 재단은 하둡을 ‘분산 컴퓨팅 ... ...
LHC 빅데이터와 LHC Computing Grid의 계층 구조 LHC 빅데이터를 해결하기 위한 분석 인프라로 LHC Computing Grid가 오늘날 클라우드 컴퓨팅의 주요 기술 중 하나인 가상화를 이종 자원에서 작업 실행 환경의 다양성을 극복하... ...
클라우드 컴퓨팅의 서막 – CERN은 왜 클라우드 컴퓨팅이 필요했나? LHC 실험과 인공지능 기술에 대한 내용을 더 다루기 전에, 독자들의 이해를 더 쉽게 돕기 위해 클라우드 컴퓨팅과 LHC 실험과의 관계를 살펴보고 지나가려 한다. 오늘은... ...
CERN이 인공지능 기술을 소환한 이유 – 2015년 LHC 데이터 과학 워크샵[3] 2015년 11월 9일, CERN의 고에너지 물리학자들과 전세계의 인공지능 기술 전문가들이 모여 CERN의 검출기 데이터 처리 및 분석에 최신 인공지능 ... ...
LHC 실험 데이터의 복잡성과 인공지능 기술 이번 글부터 앞으로 세, 네 번에 걸쳐서 빅데이터 비즈니스에서 인공지능 기술이 왜 중요하고 어떻게 활용해야 하는지 같이 살펴보려고 한다. 최근 딥러닝이 IT 기술계에서 크게 관심을 끌면서 인공지능 기술에 ... ...
LHC 실험 데이터 가공 과정과 데이터 형식 이번 글에서는 CMS에서 데이터를 저장하는 방법을 살펴보면서 데이터 형식의 중요성에 대해서 생각해보자. 그리고, 이번 글까지 빅데이터 수집에 관해 썼던 네 편의 글에 걸쳐 살펴본 내용을 바탕으로 비즈니스를... ...
LHC 검출기 및 가속기 데이터의 수집과 측정 지난번 연재(How-to-Big Data 4 – 빅데이터 수집에 관한 생각 (2))에서 데이터 수집의 중요성에 대해서 강조했다. 빅데이터 가공 과정에서 첨단 기술이 가장 많이 필요한 부분은 ... ...
  1. 김진철의 How-to-Big Data | 빅데이터 조직과 시스템 (3)

  2. 2018.12.28
  3. LHC 실험을 수행하는 물리학자들과 연구자들의 특성 지금까지 LHC 실험을 위한 만든 LHC 가속기와 네 개의 검출기, 그리고 데이터 가공 및 분석을 위한 LHC 데이터 처리 시스템과 WLCG 그리드 컴퓨팅 기술을 소개하면서 빅데이터 기술의 모든 요소...

  4. 김진철의 How-to-Big Data | 빅데이터 조직과 시스템 (2)

  5. 2018.11.27
  6. CERN은 왜 오픈소스 컨퍼런스 관리 소프트웨어를 만들었나? – CERN의 Indico 앞서 자세히 소개한 그리드와 클라우드 컴퓨팅 기술, 그리고 팀 버너스 리의 월드 와이드 웹과 같이 현대 인터넷을 만든 다양한 정보 기술들이 탄생한 CER...

  7. 'CERN이 만든 암호화 이메일 서비스'··· 프로톤메일, 이젠 iOS 앱으로도 쓴다

  8. 2018.11.21
  9. 암호화 이메일 서비스 업체인 포로톤메일(ProtonMail)이 iOS 기기에서 사용할 수 있는 단독형 VPN(virtual private network) 앱을 발표했다. 이에 따라 업체가 지원하는 운영체제는 윈도우와 맥OS, 리눅스, 안드로이드, 그리...

  10. 김진철의 How-to-Big Data | 빅데이터 조직과 시스템 (1)

  11. 2018.10.26
  12. LHC 실험을 위한 협력 체계의 구조 LHC는 지구에서 가장 큰 기계일 뿐만 아니라, 건설 및 운영 비용에서도 NASA의 스페이스 셔틀 프로젝트, 허블 망원경과 같은 우주 과학 실험과 현재 프랑스 카다라슈에 건설 중인 ITER 핵융합 실험로와 함께...

  13. 김진철의 How-to-Big Data | 빅데이터와 인공지능 (4)

  14. 2018.09.27
  15. LHC 실험과 뉴로모픽 엔지니어링 LHC 실험과 같은 거대과학 실험 장치는 건설에만 10~20년이 걸리고, 대량 생산을 위한 물건이나 장치를 만드는 일이 아닌 세계에서 하나뿐인 실험 장치를 만드는 일이다 보니 큰 비용이 들고 그에 따르는 위험 부담...

  16. 김진철의 How-to-Big Data | 빅데이터 주요 기술의 조건 (1)

  17. 2018.03.23
  18. LCG 데이터 병렬 처리 프레임워크 - PROOF 본 연재의 여섯 번째 글에서 잠시 소개했던 LHC 이벤트 데이터를 분석 과정을 잠시 되새겨 보기로 하자. LHC 이벤트 데이터 분석 과정은 먼저 검출기의 Level-1 트리거와 고수준 트리거(hig...

  19. 김진철의 How-to-Big Data | 빅데이터와 클라우드 기술 (6)

  20. 2018.02.26
  21. CMS 온라인 데이터 수집 시스템의 모니터링 문제 흔히 모니터링하면 어떤 시스템의 상태를 관찰하고 운영하기 위해 필수적으로 만들어야 하는 기능이기도 하면서, 왠지 첨단 기술이 들어가지 않는 허드렛일이라는 생각을 많이 하게 되는 것 같다. 하지만, ...

  22. 김진철의 How-to-Big Data | 빅데이터와 클라우드 기술 (5)

  23. 2018.01.29
  24. CMS 검출기에 영혼을 주는 CMS 온라인 소프트웨어 지난 열두번째 글에서 소개한 Level-1 트리거는 CMS를 비롯한 LHC 검출기에서 원시 데이터 처리를 위해 데이터 스트림이 가장 먼저 만나는 시스템이다. 초당 1TB 이상 검출기 센서에서 쏟...

  25. 익스피디아, 호텔스닷컴, 테슬라 공통점은 '하둡'··· 12가지 사례

  26. 2017.12.21
  27. 지난 2015년 포레스터는 기업의 하둡 도입이 필수가 되고, 데이터에서 가치를 끌어내고자 하는 모든 기업은 최소한 하둡을 고려해야 한다고 예측한 바 있다. 하둡이란 무엇인가? 오픈소스 아파치 소프트웨어 재단은 하둡을 ‘분산 컴퓨팅 ...

  28. 김진철의 How-to-Big Data | 빅데이터와 클라우드 기술 (2)

  29. 2017.11.08
  30. LHC 빅데이터와 LHC Computing Grid의 계층 구조 LHC 빅데이터를 해결하기 위한 분석 인프라로 LHC Computing Grid가 오늘날 클라우드 컴퓨팅의 주요 기술 중 하나인 가상화를 이종 자원에서 작업 실행 환경의 다양성을 극복하...

  31. 김진철의 How-to-Big Data | 빅데이터와 클라우드 기술 (1)

  32. 2017.09.25
  33. 클라우드 컴퓨팅의 서막 – CERN은 왜 클라우드 컴퓨팅이 필요했나? LHC 실험과 인공지능 기술에 대한 내용을 더 다루기 전에, 독자들의 이해를 더 쉽게 돕기 위해 클라우드 컴퓨팅과 LHC 실험과의 관계를 살펴보고 지나가려 한다. 오늘은...

  34. 김진철의 How-to-Big Data | 빅데이터와 인공지능 (2)

  35. 2017.08.28
  36. CERN이 인공지능 기술을 소환한 이유 – 2015년 LHC 데이터 과학 워크샵[3] 2015년 11월 9일, CERN의 고에너지 물리학자들과 전세계의 인공지능 기술 전문가들이 모여 CERN의 검출기 데이터 처리 및 분석에 최신 인공지능 ...

  37. 김진철의 How-to-Big Data | 빅데이터와 인공지능 (1)

  38. 2017.07.26
  39. LHC 실험 데이터의 복잡성과 인공지능 기술 이번 글부터 앞으로 세, 네 번에 걸쳐서 빅데이터 비즈니스에서 인공지능 기술이 왜 중요하고 어떻게 활용해야 하는지 같이 살펴보려고 한다. 최근 딥러닝이 IT 기술계에서 크게 관심을 끌면서 인공지능 기술에 ...

  40. 김진철의 How-to-Big Data | 빅데이터 수집에 관한 생각 (4)

  41. 2017.07.05
  42. LHC 실험 데이터 가공 과정과 데이터 형식 이번 글에서는 CMS에서 데이터를 저장하는 방법을 살펴보면서 데이터 형식의 중요성에 대해서 생각해보자. 그리고, 이번 글까지 빅데이터 수집에 관해 썼던 네 편의 글에 걸쳐 살펴본 내용을 바탕으로 비즈니스를...

  43. 김진철의 How-to-Big Data | 빅데이터 수집에 관한 생각 (3)

  44. 2017.05.26
  45. LHC 검출기 및 가속기 데이터의 수집과 측정 지난번 연재(How-to-Big Data 4 – 빅데이터 수집에 관한 생각 (2))에서 데이터 수집의 중요성에 대해서 강조했다. 빅데이터 가공 과정에서 첨단 기술이 가장 많이 필요한 부분은 ...

X