Offcanvas
2019.11.27 김진철  |  CIO KR


두번째로 우리가 주의 깊게 살펴보아야 할 현상은 인공지능 기술의 급격한 발달이다. 인공지능 기술을 지원하기 위한 확장성을 가지는 하드웨어 기술과 소프트웨어 기술이 작은 소자에서부터 대형 슈퍼컴퓨터급의 인공지능 연산이 가능하도록 하는 분산 컴퓨팅 소프트웨어에 이르기까지 전방위적으로 발전하게 되었다. 이 때문에 가능한 지능형 데이터 처리의 방법과 범위가 확장되면서 처리할 수 있는 빅데이터의 양과 속도도 급격하게 늘어나게 될 것이다.

요즘 딥러닝이 급격한 인기를 끌어 많은 기업과 국가에서 인공지능 기술을 대표하는 미래 성장 동력 기술로서 많은 투자를 하려고 하고 있지만, 앞으로 5년에서 10년 동안 주목해서 보아야 할 인공지능 기술은 딥러닝만은 아닐 것이다. 딥러닝, 정확하게는 심층신경망(deep neural network) 기술이 과거 인공지능 기술들이 해결하지 못했던 인간의 인지 현상 문제와 흥미로운 공학적인 문제를 많이 해결하여 많은 영역에서 기술적인 돌파구를 마련한 것은 사실이지만, 딥러닝 알고리즘만으로 모든 인공지능 문제를 해결할 수 있다고 보는 것은 과장된 측면이 있다.

딥러닝과 인공지능 기술이 앞으로 빅데이터를 활용한 비즈니스에서 활용도가 높아지고 이들을 활용한 빅데이터 비즈니스가 성공하기 위해서는 뇌과학과 양자컴퓨팅과 같은 차세대 컴퓨팅 기술의 발전이 필수적이다. 

딥러닝 기술의 선구자이고 2019년 컴퓨터 과학계의 노벨상인 튜링상을 공동 수상한 뉴욕대 데이터 과학연구소와 페이스북 인공지능 연구소의 얀 르쿤(Yann LeCun) 교수는 딥러닝 기술이 꼭 인간 두뇌가 정보를 처리하는 모델과 똑같을 필요는 없고, 한동안은 공학적인 관점에서 활용도를 높이는 연구만으로도 충분하다고 언급한 적이 있다[7-8]. 이 말에 필자도 동의하지만, 딥러닝 알고리즘과 모델, 기술을 어떤 영역에서 더 잘 활용할 수 있을지 알기 위해서라도 뇌과학의 발전은 필요하다고 생각한다.

심층신경망 모델 자체가 인간 두뇌의 정보 처리 과정을 수학적으로 모델링하기 위해 고안한 신경망 모델에 기반을 두고 있고, 우리들의 뇌에 대한 이해가 넓어지면 넓어질수록 심층신경망 모델의 한계와 개선 방향을 더 잘 알 수 있을 것이기 때문에 뇌과학의 발전이 필요하다는 것이다. 심층신경망 모델로 인간과 똑같은 인공지능을 만들기 위해 뇌과학이 필요한 것이 아니라, 심층신경망 기술로 아직 하지 못하는 지능형 데이터 처리의 영역이 어느 영역이고, 왜 그런지를 이해할 수 있어야 심층신경망 기술을 또 다른 차원으로 발전시킬 수 있기 때문에 뇌과학의 연구가 필요한 것이다.

심층신경망 기술과 가장 밀접하게 연관이 있는 뇌과학 분야는 현재 국제적인 컨소시엄으로 대형 프로젝트가 진행되고 있는 “커넥톰 프로젝트(The Human Connectome Project)”이다. “커넥톰(connectome)”이란 인간 신경계의 신경세포들이 어떤 양상으로 연결되어 정보를 처리하는지 신경생물학적으로 연구하는 신경과학의 한 분야이다. 최근 커넥톰 프로젝트의 연구 성과들이 네이처와 같은 영향력 있는 학술지에 자주 발표되고 있다. 이런 커넥톰 프로젝트의 연구 성과들은 딥러닝 기술이 인간의 정보처리 능력을 더 실제와 같이 모델링하고 구현할 수 있도록 발전시키는 데 크게 도움이 되는 지식으로 활용될 것이다.

세번째로 우리가 앞으로의 빅데이터 활용과 관련해서 염두에 두어야 할 중요한 현상은 사물인터넷 기술과 엣지컴퓨팅(edge computing) 기술의 발전으로 인해 수요가 폭증하게 될 지능형 센서 때문에 모바일 네트워크로 전송되는 데이터의 양이 앞으로 오는 10년간 급격하게 늘어나리라는 것이다.

사물인터넷과 엣지컴퓨팅, 그리고 편재컴퓨팅(pervasive computing) 기술의 발전이 우리 생활에 가져오는 큰 변화는 크게 두 축이다. 먼저 우리 주변의 환경과 우리 자신에 대한 데이터를 더 정밀하고 풍성하게 수집하여 컴퓨터가 우리의 주변 환경과 우리 자신을 이해하기 위해 필요한 정보를 얻기가 쉬워진다는 것이다. 두번째로, 엣지컴퓨팅 기술의 발전으로 임베디드 시스템에서의 데이터 처리 능력이 향상되면서 휴대폰과 같은 단말뿐만 아니라 우리와 직접적으로 상호작용할 수 있는 디바이스와 사물의 행동 양상이 더 복잡해지고 지능화된다는 것이다.

위와 같은 변화는 많은 기업이 지능형 센서와 엣지컴퓨팅 디바이스로부터 사물인터넷을 통해 전송되는 막대한 양의 빅데이터를 효과적으로 처리해야 하는 요구사항에 직면하게 할 것이다. 이런 상황에서는 빅데이터를 효과적으로 처리하여 기업과 조직이 자신의 비즈니스 모델에 맞는 정보를 비즈니스 모델이 요구하는 응답성능에 맞게 추출하고 가공하여 사용자가 상호작용하는 단말과 디바이스, 또는 로봇과 같은 장치로 사용자의 요청에 맞는 서비스를 제공하는 일 자체가 기업과 조직의 기술적인 경쟁력으로서 자리 잡게 된다.

앞에서 살펴본 것과 같이 유무선 네트워크 기술과 대역폭이 아무리 발전하더라도 네트워크를 통해서 쏟아져 들어오는 데이터를 처리하는데 필요한 지연과 연산량을 확보하는 것은 별도의 기술력이 필요하게 된다. 이런 빅데이터 처리를 위한 컴퓨팅 능력(computing power)과 자원을 확보하는 것은 양자컴퓨팅과 같은 컴퓨터 아키텍처의 근본적인 변화를 가져오는 기술을 사용하는 것 외에는 현재 대부분 클라우드 컴퓨팅을 포함한 분산 컴퓨팅 소프트웨어 기술에 의존하기 때문에 앞으로 대부분 기업이 분산 컴퓨팅 소프트웨어 개발 역량을 갖춘 소프트웨어 엔지니어 인재를 어떻게 확보하느냐가 기술 경쟁력과 비즈니스 우월을 확보하는 데 큰 영향을 미치게 될 것이다.

네번째로, 클라우드 컴퓨팅 기술의 발전과 확산이 빅데이터 비즈니스에 필요한 컴퓨팅, 네트워크 자원을 활용하는 데 드는 어려움을 크게 감소시키면서 빅데이터 인프라를 설계하고 다루는 기술보다는 빅데이터 소프트웨어 기술을 비즈니스 요구사항에 맞게 다루는 기술과 역량이 더 부각되고 중요해질 것이다.

최근 클라우드 컴퓨팅이라는 말을 사람들이 쓰는 것을 가만히 관찰해보면 크게 두 가지 의미로 많이 쓰고 있는 것 같다. 첫번째로 서버, 저장장치, 네트워크 등의 IT 인프라와 웹애플리케이션 서버와 같은 개발용 플랫폼, 하둡 등의 빅데이터 소프트웨어를 포함한 IT 자원을 서비스 형식으로 필요할 때만 사용하는 전통적인 클라우드 컴퓨팅의 의미로 사용한다. 두번째로, 서비스-지향 아키텍처와 서비스-지향 컴퓨팅 패러다임을 따라 과거에는 인터넷 서비스 형태로 제공되지 않던 기능이나 서비스를 인터넷 서비스로 제공하는 것에 ~클라우드와 같은 식으로 클라우드라는 말을 붙여 사용한다.

필자가 얘기하고 싶은 클라우드 컴퓨팅은 첫번째 의미에서의 클라우드 컴퓨팅이다. 후자는 사실 클라우드 컴퓨팅이 아니라 서비스-지향 컴퓨팅인데, 요즘 클라우드 컴퓨팅이라는 말이 워낙 유행하다 보니 사람들이 혼용해서 쓰는 것으로 보인다.

클라우드 컴퓨팅은 우리가 CERN의 LHC 컴퓨팅 그리드 사례에서도 살펴보았듯이 그리드 컴퓨팅 환경에서 작업 실패율을 줄이기 위한 방법으로 가상 머신을 분산 컴퓨팅 계산 작업에 사용하면서 시작된 컴퓨팅 개념이라고 설명한 바 있다[10]. 그리드 컴퓨팅의 컴퓨팅 인프라 사용에서 주문형 자원 활용을 위한 서비스-지향 아키텍처 도입과 이에 따른 자원관리가 가상 머신과 리눅스 컨테이너 등의 가상화 기술이 들어가면서 유연한 작업 실행 환경과 자원 관리 기능이 더해져 클라우드 컴퓨팅이 된 것이다.

CERN의 LHC 컴퓨팅 그리드 사례에서도 살펴보았듯이 클라우드 컴퓨팅은 빅데이터 처리와 분석에 필요한 컴퓨팅 자원을 유연하고 확장성 있게 제공, 관리하기 위해 쓰이는 기술이다. 이런 측면에서 대표적인 오픈소스 클라우드 컴퓨팅 소프트웨어인 오픈스택(http://www.openstack.org)을 데이터센터 스케일의 웨어하우스 컴퓨터(warehouse computer) 운영체제라고 부르는 이유가 바로 이질적인(heterogeneous) IT 자원으로 구성된 데이터센터 자원을 가상화 기술로 동질화(homogenize)해서 데이터센터 스케일의 자동화된 자원 관리와 확장성을 추구하기 때문이다.

최근 클라우드 기술이 성숙해지면서 클라우드 컴퓨팅의 유연하고 확장성 있는 자원 활용의 장점이 극대화되어 많은 빅데이터 작업들이 아마존 웹 서비스나 마이크로소프트의 애저(Azure), 구글 클라우드 서비스 등의 퍼블릭 클라우드 서비스로 옮겨가는 추세인 것을 볼 수 있다. 이들 퍼블릭 클라우드 서비스들은 최근 딥러닝을 포함한 인공지능 기술도 클라우드화하여 빅데이터 처리 및 분석에 활용하기 위한 환경을 만들고 있어서 앞으로 클라우드 컴퓨팅은 빅데이터 활용에서 운영체제 수준의 필수적인 기술로 자리 잡을 것으로 보인다.

다섯번째로, P-RAM으로 대표되는 차세대 메모리 기술, 엔비디아의 NVLink와 같은 차세대 버스 기술의 발전이 네트워크 기술의 발전과 맞물려 데이터센터 컴퓨팅 자원의 계층이 서버 단위에서 랙과 클러스터 단위로 단순화되는 경향이다.

https://gigglehd.com/gg/hard/5715006
그림 4. 인텔의 차세대 메모리 제품인 옵테인 제품의 개발 계획과, 옵테인 메모리를 사용했을 때 주요 워크로드의 성능 향상 수치. (그림 출처: (위) [9] (아래) https://gigglehd.com/gg/hard/5715006)

지난 9월 26일 한국에서 열린 인텔 메모리 앤드 스토리지 데이 2019 행사에서, 인텔은 최신 비휘발성 메모리 기술인 옵테인 메모리 개발 계획을 공개한 바 있다. 4~5년 전부터 인텔이 차세대 메모리 기술로 공개한 3D 크로스포인트(3D XPoint) 기술을 통해 인텔은 현재 삼성전자가 독주하고 있는 메모리 시장을 공략하려는 의지를 지속해서 보여왔다. 아직 DRAM 수준의 입출력 속도를 보이지는 못하지만 기존의 NVMe SSD보다는 1,000배 이상 빠른 입출력 속도와 내구성을 보이는 비휘발성 메모리이기 때문에 앞으로 DRAM을 대체하는 메인 메모리로 발전시키겠다는 것이 인텔의 계획이다.

인텔이 옵테인 제품을 앞세워서 기존 DRAM을 대체하는 메인 메모리 시장을 장악하겠다는 데에 의구심과 혹평을 보이는 사람들이 많다. 필자는 인텔이 옵테인 제품으로 DRAM으로 장악된 메인 메모리 기술을 대체하는 데 당장 성공하지는 못하더라도 컴퓨터 아키텍처에서 메인 메모리-영속성 메모리로 구분 지워진 메모리 계층(memory hierarchy)을 깨뜨리고 메모리 계층이 단순화된 부팅이 필요 없는 새로운 컴퓨터 아키텍처로 진화하는데 디딤돌 역할을 할 것이라고 확신한다. 기존의 휘발성 DRAM 메모리가 비휘발성 고용량 메모리로 대체되고, 메인 메모리-영속성 메모리 계층이 깨지면서 운영체제의 커널이 메모리에 로드되고 영속성 데이터가 메모리로 이동했다가 다시 삭제되는데 필요한 처리 지연이 없어진다면 기존의 많은 응용 프로그램들의 성능이 대폭 향상될 것이고 프로그래밍도 훨씬 단순해질 것이기 때문이다.

메인 메모리-영속성 메모리의 계층이 깨지게 되면 앞서 얘기한 클라우드 컴퓨팅이 빅데이터 처리와 분석을 위한 컴퓨팅 요구사항을 확장성 있게 만족하기 위해 필요한 노드 간 확장성을 높이기가 훨씬 쉬어 진다. 일반 개인용 컴퓨터를 사용하는 사용자들보다는 데이터센터 스케일의 서비스와 분산 컴퓨팅 시스템을 개발하는 기업들을 중심으로 옵테인 메모리의 수요가 급증할 것이기 때문에 옵테인 메모리의 상업화를 시작으로 컴퓨터 아키텍처의 중요한 계층 중의 하나인 메모리 계층에 큰 변화가 일어날 가능성이 높다. 이런 메모리 계층의 변화가 빅데이터를 위한 소프트웨어 기술과 빅데이터 서비스의 발전에 크게 영향을 미칠 것으로 기대된다.

여섯번째로, 양자컴퓨팅의 발전으로 컴퓨터의 연산 능력이 비약적으로 향상되면서 새롭게 컴퓨팅이 가능한 문제 영역들이 발견되고, 이를 활용해 수익을 창출할 수 있는 새로운 빅데이터  비즈니스 영역들이 나타나게 될 것이다.

양자컴퓨팅이 최근 1~2년 동안 급격하게 IT업계의 화제로 자리 잡고 있다. 불과 3년 전까지만 해도 양자물리학자들과 컴퓨터 과학자들을 중심으로 실험적인 큐비트(qubit) 연산과 양자 알고리즘을 중심으로 이루어지던 양자컴퓨팅 연구가 최근 1~2년 동안 상용화를 목표로 하는 프로젝트와 그 성과가 가시적으로 나타나면서 상용화에 대한 기대감이 기대보다 많이 높아졌다. 지난 10월  24일자 영국의 유명 과학 학술 저널 네이처지에는 구글의 존 마르티네즈(John Martinez) 교수 연구팀이 의사 난수 생성(pseudo random number generation)에서의 샘플링(sampling) 문제에서 양자 우월(quantum supremacy)을 달성했다는 논문이 실려 많은 사람들을 놀라게 하기도 했다.

양자컴퓨터의 실용화가 어려운 이유 중의 하나는 양자컴퓨터가 구체적으로 어떤 문제에서 현재 우리가 쓰고 있는 컴퓨터보다 더 나은 성능을 제공하는지 아직 알지 못한다는데 있다. 피터 쇼어(Peter Shor)의 큰 소인수 분해(prime factorization) 알고리즘과 로브 그로버(Lov Grover)의 검색 알고리즘을 제외하고는 눈에 띄게 실용성이 부각된 알고리즘도 아직 분명하지 않다. 이렇다 보니 양자컴퓨터의 아키텍처가 어떻게 디자인되어야 하는지 분명하지 않아 아직은 가능하면 많은 큐비트를 만들고 이를 조작, 제어할 수 있는 기계를 만드는 것에 초점이 맞추어져 있는 상황이다.

그럼에도 불구하고 한 가지 분명한 것은 양자컴퓨팅이 고전적인 컴퓨터보다 성능 면에서 분명히 나을 것이라고 여겨지는 분야가 있다는 것이다. 가장 대표적인 것이 최적화(optimization) 연산이다. 최적화는 특정한 제약(constraint)을 가진 목적 함수(objective function)의 값을 최대, 또는 최소화하는 최적의 모델 파라미터들의 값을 구하는 문제인데, 자연과학과 공학에서 널리 사용되는 대표적인 문제 중 하나이다. 큐비트가 가진 내재적인 병렬성을 이용하여 목적 함수의 지형(landscape)을 빠르게 탐색하면 최적화 연산 시간을 크게 줄일 수 있는 것이다. 앞에서 잠시 언급한 피터 쇼어의 큰 소인수 분해 알고리즘과 로브 그로버의 검색 알고리즘도 이 큐비트의 내재된 병렬성을 이용하는 알고리즘이다.

이 최적화 문제가 활용되는 대표적인 분야 중의 하나가 바로 인공지능이다. 인공지능 알고리즘 중에서도 통계적인 기계 학습과 신경망 또는 딥러닝 알고리즘에서는 최적화 연산이 중요한데, 바로 이 최적화 연산을 양자 컴퓨터로 수행할 수 있게 되면 기계 학습과 딥러닝 알고리즘의 성능을 대폭 향상하는 것이 가능하다. 이렇게 성능이 향상된 기계 학습과 딥러닝 알고리즘을 활용하면 빅데이터 비즈니스에서 데이터 처리, 분석과정의 자동화 성능과 효율을 크게 향상할 수 있기 때문에 양자컴퓨터의 혜택을 가장 많이 입는 분야 중 하나가 바로 빅데이터 비즈니스를 하는 기업들일 것으로 기대되고 있다.

지금까지 살펴본 여섯 가지가 앞으로 빅데이터 비즈니스의 성장과 확산에 크게 영향을 줄 주요 기술 트렌드들이다. 이 여섯 가지 트렌드가 빅데이터 비즈니스와 미래 IT 기술에 어떤 영향을 줄 것인지 같이 살펴보면서 우리가 어떻게 미래를 대비해야 하는지 같이 고민해보려고 한다.

위 여러 가지 트렌드 중에서도 눈에 띄는 것은 인공지능의 발전을 가속화하는 기술들이 최근 눈에 띄게 발전하고 있다는 것이다. 그렇다면, 조만간 세간의 언론에서 많이 언급되고 우려되고 있는 ‘초지능(super-intelligence)’ 같은 것이 조만간 출현해서 인류의 생존을 위협하게 될까? 인공지능이 알아서 데이터를 수집하고 가공, 분석해서 우리의 필요에 맞게 우리가 알고 싶은 모든 것을 알려주는 시대가 오면 데이터과학자는 빅데이터 비즈니스에서 필요 없는 것이 아닐까? 필자는 그럴 가능성은 매우 낮다고 보고 있다. 설사 그런 일이 일어난다고 해도 아주 먼 미래의 일일 가능성이 높고, 우리가 조만간 보게 될 세상에서의 인공지능 기술은 우리의 생활을 더 편리하고 풍성하게 할 가능성이 높다.

근 미래의 빅데이터 비즈니스에서 인공지능 기술이 데이터 수집, 처리, 가공, 분석 과정에서의 자동화와 새로운 통찰을 발견하는 데 많은 도움이 될 것은 사실이다. 그렇지만, 데이터과학자가 빅데이터 비즈니스 문제를 어떻게 풀 것인지 고민해서 해법을 찾아내고, 소프트웨어 엔지니어들이 인공지능 기술을 이용한 빅데이터 시스템을 디자인하고 구축하는 것과 같은 일들을 현재의 인공지능 기술이 대신하지는 못한다. 오히려 인공지능 기술이 빅데이터 비즈니스를 지원할 수 있도록 하는 빅데이터 IT 시스템을 디자인, 개발, 구축하고 이를 데이터과학에 활용하여 비즈니스 문제를 푸는 일을 하기 위해 필요한 데이터 과학자와 소프트웨어 엔지니어, 인공지능 기술 전문가의 수요가 폭증하여 IT 산업이 새로운 방향으로 크게 성장할 가능성이 높다.

인공지능 기술을 이용한 자동화로 인해 생기는 실직과 사회 문제는 인공지능 기술로 인해 새롭게 생겨나는 IT 산업의 기회와 성장을 통해 극복될 것으로 보인다. 하지만, 그 과도기에서 소외되고 피해를 입는 사람들이 생기는 것은 사실이기 때문에 이에 대한 사회적인 준비와 대책을 마련해야 한다. 인공지능 기술로 인해 생기는 사회 문제가 다른 방식으로 어떻게 극복될 가능성이 있는지도 앞으로 빅데이터 비즈니스의 미래를 고민하면서 같이 생각해보자.

필자는 위 여섯 가지 기술 트렌드로 바뀌게 될 미래에 기술이 가져다주는 새로운 기회와 열매를 우리가 맘껏 즐길 수 있을 것으로 생각한다. 위와 같은 트렌드로 바뀌게 될 빅데이터 비즈니스의 모습을 같이 생각해보면서 우리가 이 새로운 기회와 열매를 풍성하게 누릴 수 있는지 앞으로 같이 살펴보도록 하자.

[참고문헌]
[1] 김진철, “LHC에서 배우는 빅데이터와 machine learning 활용 방안”, 2016년 9월 28일, A CIO Conversation for Technology Leadership – Breakfast Roundtable 발표 자료
[2] Ethernet Alliance 2019 Roadmap, https://ethernetalliance.org/technology/2019-roadmap/ .
[3] Wikipedia, “Terabit Ethernet,” https://en.wikipedia.org/wiki/Terabit_Ethernet#cite_note-NGOATH-1 .
[4] High Capacity 400G Data Center Networking, https://www.cisco.com/c/en/us/solutions/data-center/high-capacity-400g-data-center-networking/index.html
[5] Juniper Networks Leads 400GbE Transition with Comprehensive Roadmap, https://investor.juniper.net/investor-relations/press-releases/press-release-details/2018/Juniper-Networks-Leads-400GbE-Transition-with-Comprehensive-Roadmap/default.aspx .
[6] Chris Jablonski, “Researchers to develop 1 Terabit Ethernet by 2015,” Emerging Tech, October 26, 2010. (https://www.zdnet.com/article/researchers-to-develop-1-terabit-ethernet-by-2015/)
[7] Yann LeCun on Deep Learning and Brain, Yann LeCun’s Facebook, December 11, 2017. https://www.facebook.com/yann.lecun/posts/10154948630217143 .
[8] Yann LeCun, “ Deep Learning and the Future of AI,” CERN Colloquium, March 24, 2016. (https://indico.cern.ch/event/510372/).
[9] Billy Tallis, “Intel Shares New Optane And 3D NAND Roadmap - Barlow Pass DIMMs & 144L QLC NAND in 2020,” AnandTech, September 25, 2019. (https://www.anandtech.com/show/14903/intel-shares-new-optane-and-3d-nand-roadmap
[10] 김진철, “김진철의 How-to-Big Data | 빅데이터와 클라우드 기술 (1)”, CIO Korea, 2017년 9월 25일자. (http://www.ciokorea.com/column/35688)

*김진철 박사는 1997년 한국과학기술원에서 물리학 학사, 1999년 포항공과대학교에서 인공신경망에 대한 연구로 석사 학위를, 2005년 레이저-플라즈마 가속기에 대한 연구로 박사 학위를 받았다. 2005년부터 유럽입자물리학연구소(CERN)의 LHC 데이터 그리드 구축, 개발에 참여, LHC 빅데이터 인프라를 위한 미들웨어 및 데이터 분석 기술을 연구하였다. 이후 한국과학기술정보연구원(KISTI), 포항공과대학교, 삼성SDS를 거쳐 2013년부터 SK텔레콤에서 클라우드 컴퓨팅과 인공지능 기술을 연구하고 있다. 빅데이터와 인공지능 기술의 기업 활용 방안에 대해 최근 다수의 초청 강연 및 컨설팅을 수행하였다. ciokr@idg.co.kr
 
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.